Préparer le déploiement de véhicules autonomes en qualifiant la variabilité des comportements de conduite réels observés en congestion
1.
Préparer le déploiementde véhicules autonomes en
qualifiant la variabilité des comportements de
conduite réels observés en congestion
Lucas RIVOIRARD
VA Exploitation et infrastructures
Promotion 60
27 août 2015
Président du jury : M. NOUR-EDDIN El Faouzi
Rapporteur : M. LECLERCQ Ludovic
Maître de stage : Mme
BUISSON Christine
Expert : M. CANTIN Richard
3.
Notice Analytique
Nom Prenom
AuteurRIVOIRARD Lucas
Titre Préparer le déploiement de véhicules autonomes
en qualifiant la variabilité des comportements de
conduite réels observés en congestion
Organisme d’affiliation
et localisation
Nom Prenom
Encadrant LICIT - ENTPE MmeBUISSON Christine
Collation Nombre de pages du rapport Nbre d’annexes Nbre de réf.
biblio.
110 30 38
Mots clefs Véhicules autonomes, variabilité de conduite, automatisation basse
vitesse, congestion, accélération, temps inter-véhiculaires
Keywords Autonomous vehices, driving variability, low speed automation,
congested, acceleration, time headway, time gap
Termes
Geographiques
Grenoble, RN 87
Resume Le déploiement des véhicules autonomes, c’est à dire conduits sans
l’intervention de l’homme, nécessite une bonne connaissance du tra-
fic. Il est probable qu’une période de transition entre véhicules ma-
nuels et autonomes mêle ces deux types de véhicules à circuler en-
semble. Il convient alors de connaître les gammes d’actions qu’un
conducteur peut être amené à réaliser. Ainsi cette étude s’attachera
à mettre en évidence la variabilité de conduite dans le cas d’une
autoroute congestionnée en vue d’utiliser l’automatisation basse vi-
tesse.
Abstract The deployment of autonomous vehicles, ie driving without the in-
tervention of man, requires a good knowledge of traffic. It is likely
that a period of transition between manual and autonomous vehicle
combines these two types of vehicles to travel together. It’s neces-
sary to know the range of actions that a driver may need to do. Thus
this study will seek to highlight the variability of conduct in the case
of a congested highway in order to use low speed automation.
2
4.
Remerciements
Je tiens toutd’abord à remercier Nour Eddin El Faouzi qui a accepté d’être mon président
de jury.
Je remercie également Ludovic Leclercq et Cantin Richard qui ont bien voulu être respec-
tivement le rapporteur et l’expert de mon master MEGA.
Je remercie vivement Christine Buisson pour son encadrement tout au long de ce stage.
Elle a su se rendre disponible au moment opportun et a réuni toutes les conditions nécessaires
pour la bonne réussite de mon travail.
Pour finir je voulais également remercier toutes les personnes du LICIT qui m’ont aidé, je
pense notamment à Daniel Vilegas et Etienne Hans, mais aussi les deux stagiaires Mélanie
d’Auria et Mélanie Limier qui ont partagé mon bureau.
3
Table des figures
1Vision futuriste d’un vehicule autonome - d’après le Point - source Volvo . . . 9
2 Vision futuriste des interactions - (d’après le Point - source Volvo) . . . . . . . 10
1.1 Trajectoire d’un véhicule dans le plan (x,t) [Buisson and Lesort, 2010] . . . . . 13
1.2 Trajectoire de véhicules issue du projet MOCoPo . . . . . . . . . . . . . . . . 14
1.3 A gauche : Trajectoires de deux véhicules : un véhicule leader et son vé-
hicule suiveur ; à droite : définition géométrique du temps avant collision
[Buisson and Lesort, 2010] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4 Distributions des temps inter-individuels observées sur une autoroute au nord
de Marseille pour la voie centrale [Buisson and Lesort, 2010] . . . . . . . . . . 16
1.5 Les deux zones de comportement du trafic routier [Buisson and Lesort, 2010] . 16
1.6 Capacité maximale en fonction de la taille du peloton en simulation [Olia et al., 2015] 19
1.7 Diagrammes fondamentaux en fonction de la taille du peloton en simulation
[Olia et al., 2015] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.8 Risque d’accident mortel en fonction du débit et de la pénétration de véhicules
autonomes [Ma and Andréasson, 2005] . . . . . . . . . . . . . . . . . . . . . . 21
1.9 Schéma de principe de la communication V2I [Farah et al., 2012] . . . . . . . . 23
1.10 Modèle de Newell - source wikipedia . . . . . . . . . . . . . . . . . . . . . . . 24
1.11 Modèle de Newell [Laval and Leclercq, 2010] . . . . . . . . . . . . . . . . . . . 25
2.1 Liste des indicateurs permettant la comparaison entre les différentes méthodes
[Marczak, 2012] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Résultats obtenus des indicateurs en fonction de la méthode de filtrage [Marczak, 2012] 29
2.3 Résultats obtenus des indicateurs en fonction de la méthode de filtrage [Marczak, 2012] 30
2.4 Trajectoire, vitesse et accélération filtrées par des splines [Vieira Da Rocha, 2013] 31
2.5 Résultats obtenus pour une cardioïde bruitée [Garcia, 2010] . . . . . . . . . . . 31
2.6 Résultats de l’étude de sensibilité [Toledo et al., 2007] . . . . . . . . . . . . . . 32
2.7 Organisation des prises de vues depuis l’hélicoptère [Rap, 2011] . . . . . . . . 33
2.8 Zones d’étude [Rap, 2011] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.9 Première phase de correction [Rap, 2011] . . . . . . . . . . . . . . . . . . . . . 34
2.10 Deuxième phase de correction [Rap, 2011] . . . . . . . . . . . . . . . . . . . . 35
2.11 Représentation des octogones . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
6
8.
2.12 Zone étudiée. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.13 Problème de détection de véhicule : dédoublement . . . . . . . . . . . . . . . . 38
2.14 Problème de détection de véhicule : perte de reconnaissance . . . . . . . . . . 38
2.15 Fonction tri-cube [Toledo et al., 2007] . . . . . . . . . . . . . . . . . . . . . . . 41
2.16 Méthode de correction d’erreur . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.17 Courbe (X,Y) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.18 Correction des trajectoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.19 Vitesse en fonction de l’écart type . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.20 Accélération en fonction de l’écart type . . . . . . . . . . . . . . . . . . . . . . 45
2.21 Calcul des intervalles [Marczak, 2012] . . . . . . . . . . . . . . . . . . . . . . 46
2.22 Exemple de trajectoire qui sort de la marge d’erreur . . . . . . . . . . . . . . . 47
2.23 Résultats obtenus avec les splines . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.24 Résultats obtenus avec les splines . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.25 Vitesse en fonction du pourcentage de dépassement au-delà de la marge d’erreur 50
2.26 Accélération en fonction du pourcentage de dépassement de la marge d’erreurs 51
2.27 Amélioration de la méthode de filtrage - source [Buisson et al., 2016] . . . . . 52
2.28 Véhicule 18 :(a) profil (x,t) ; (b) profil (y,t) ; (c) profil (x,y) ; (d) vitesse en
m/s ; (e) accélération en m/s2 ; (f) jerk en m/s3 - source [Buisson et al., 2016] 52
3.1 Répartition des usagers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.2 Distribution des vitesses expérimentées par les usagers . . . . . . . . . . . . . 56
3.3 Vitesse moyenne des usagers sur le tronçon en fonction de leur date d’entrée
sur la zone - source [Rivoirard and Buisson, 2016] . . . . . . . . . . . . . . . . 57
3.4 Fonction de répartition empirique de la vitesse . . . . . . . . . . . . . . . . . . 58
3.5 Distribution de l’accélération . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.6 Fonction de répartition empirique de l’accélération . . . . . . . . . . . . . . . . 60
3.7 Fonction de répartition empirique de la décélération . . . . . . . . . . . . . . . 60
3.8 Distribution des TIV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.9 Profil de vitesse du véhicule 18 . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.10 Distribution des vitesses du véhicule 18 . . . . . . . . . . . . . . . . . . . . . . 62
3.11 Trajectoire d’un véhicule dit agressif . . . . . . . . . . . . . . . . . . . . . . . 63
4.1 Duration of takeover in seconds - source [Rivoirard and Buisson, 2016] . . . . . 65
4.2 Duration of takeover in seconds - source [Rivoirard and Buisson, 2016] . . . . . 66
4.3 Speed profile of the vehicle No. 6114 - source [Rivoirard and Buisson, 2016] . . 66
4.4 Speed distribution function of all vehicles observed by virtual loops - source
[Rivoirard and Buisson, 2016] . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.5 Number of takeovers detected for a threshold of 50 km/h - source [Rivoirard and Buisson, 2016] 6
4.6 Number of takeover detected for a threshold at 50km/h if all vehicles are
equipped with GPS - source [Rivoirard and Buisson, 2016] . . . . . . . . . . . 69
7
9.
4.7 Percentage ofvehicles for which the takeover is detected (with standard devia-
tion) for a threshold at 50km/h depending on the proportion of GPS-equipped
vehicles - source [Rivoirard and Buisson, 2016] . . . . . . . . . . . . . . . . . . 70
4.8 Summary of takeover detection capabilities of various sensors - source [Rivoirard and Buisson, 201
4.9 Schematic diagram for a continuation scenario . . . . . . . . . . . . . . . . . . 72
8
10.
Avant-propos
La congestion observéequotidiennement sur les autoroutes représente à la fois une menace
économique, écologique mais aussi sociale puisqu’elle est chronophage pour les usagers des
transports. Depuis quelques années, le travail des chercheurs du domaine du transport routier
consiste à trouver des moyens pour réguler le trafic. Un des objectifs finaux est de proposer
des véhicules entièrement autonomes pour limiter la congestion mais aussi procurer une
conduite plus sécuritaire à l’automobiliste. Un véhicule autonome est un véhicule capable de
gérer toutes les tâches de conduite automatiquement, c’est-à-dire qu’un ordinateur de bord
assurera le pilotage complet du véhicule sans l’intervention de l’homme. On peut évidemment
commencer par imaginer le véhicule automatisé qui n’est automatisé que pour certaines tâches
spécifiques de conduite. En particulier, on s’intéressa ici à l’automatisation basse vitesse
(ABV), c’est-à-dire la conduite autonome lorsque la vitesse du véhicule est inférieure à un
seuil (par exemple 50km/h).
Figure 1 – Vision futuriste d’un vehicule autonome - d’après le Point - source Volvo
Les intérêts des véhicules autonomes sont multiples. En effet, en laissant la tâche de
conduite à des ordinateurs, on supprime toute erreur humaine possible qui conduit à plus
de 1.24 millions d’accidents mortels dans le monde chaque année [Diakaki et al., 2015]. De
plus, le système de véhicules autonomes permet d’augmenter considérablement le champ de
vision et d’anticipation de l’usager notamment si ce système est couplé à des connexions entre
véhicules.
9
11.
Avec des véhiculesconnectés par exemple, si une zone de ralentissement est détectée par
un premier véhicule, cette information pourra être transmise de manière rapide à d’autres
véhicules en amont, alors capables d’adapter leur vitesse pour réduire les freinages dangereux
à l’aplomb de la zone perturbée. En laissant le soin aux algorithmes de choisir la vitesse, la
distance entre les véhicules ou d’autres types de variables et d’indicateurs, on peut également
optimiser au mieux la concentration des véhicules sur la route et ainsi réduire efficacement
la congestion. De plus les émissions de CO2 et l’utilisation d’énergie fossile caractérisant le
transport routier pourront être limitées. Ainsi, avec une bonne connaissance du trafic, les
véhicules optimiseront leurs accélérations et donc consommeront moins de carburant.
On peut donc dire que l’utilisation de nouvelles technologies dans le domaine du transport
va permettre de créer différents types d’applications et services pour les conducteurs. De
plus, grâce aux communications entre véhicules et l’infrastructure les véhicules autonomes
deviendront des véhicules connectés. Néanmoins, l’un des travaux préparatoires avant l’avè-
nement du véhicule automatisé correspond à la connaissance des différents comportements
de conduite observés sur autoroute. La voiture est l’un des seuls moyens de transport où il
existe une très grande variabilité de conduite. En effet chaque conducteur a des habitudes de
conduite très hétérogènes. Cet effet est d’autant plus marqué que le parc automobile Français
compte plus de 38 millions de véhicules 1
.
Figure 2 – Vision futuriste des interactions - (d’après le Point - source Volvo)
1. source : wikipédia
10
12.
Introduction
Quelles que soientles difficultés actuelles concernant l’avènement du véhicule autonome,
il convient d’imaginer les options éventuelles et notamment la libre circulation de ce type
de véhicules au sein du trafic routier actuel. Ainsi, nous pouvons prendre l’hypothèse que
les véhicules autonomes devront tout d’abord s’adapter au parc actuel et donc côtoyer des
véhicules conduits manuellement.
L’implication de cette hypothèse est que les véhicules autonomes devront être en mesure
de traiter toutes les situations de conduite afin de pallier l’absence de conducteur. Ils auront
donc la tâche de réagir de manière compréhensible pour les humains qui suivront ce type de
véhicules. De plus, dans la mesure où actuellement, et dans le respect de la réglementation,
un véhicule autonome peut à tout instant être repris en main par le conducteur, il faut que
les conditions de conduite qui préexistent à cette reprise en main garantissent la sécurité.
Comme nous l’avons vu dans l’avant-propos, l’automatisation basse vitesse (ABV) est un
premier pas vers les véhicules autonomes. Elle permet à l’automobiliste de laisser le pilotage
de son véhicule à l’ordinateur de bord lorsque la vitesse du véhicule est inférieure à un seuil.
Dans ce rapport, nous nous intéresserons à l’impact de l’utilisation de l’ABV. Le travail
de fin d’étude s’effectuant au LICIT (Laboratoire d’Ingénierie Circulation Transports), il
possède des données sur les trajectoires de véhicules. Avec ces données, il est pertinent de
se demander si l’analyse fine des comportements de conduites actuels de véhicules manuels
pourrait caractériser les conditions d’introduction de l’ABV. En effet on souhaite caractériser
l’impact de ce nouveau système autant en termes de sécurité que de congestion, de pollution
ou de consommation. Pour cela trois possibilités s’offrent à nous :
— Attendre le déploiement de ce type de véhicule puis faire une analyse à posteriori.
— Etudier les comportements réels en identifiant les véhicules qui se comportent comme
s’ils possédaient le système ABV et voir l’impact sur les autres véhicules.
— Qualifier les comportements des véhicules manuels pour connaitre les différentes gammes
d’action qu’un conducteur peut être amené à réaliser afin de se servir de ses résultats
pour faire une simulation informatique avec des véhicules équipés d’ABV.
Afin d’obtenir les réponses aux problèmes posés par l’introduction de l’ABV, nous avons
choisi le troisième point, c’est-à-dire chercher les différentes typologies de comportements de
conduite en vue de les utiliser pour des simulations. Afin de restreindre nous cadre d’étude,
11
13.
l’étude se focaliserasur des données observées sur autoroute en congestion. En effet, il est plus
facile aux automobilistes d’imaginer que leur véhicules soit automatisé lors des périodes de
congestion sur autoroute qu’en milieu urbain. Il s’agira donc ici d’analyser le comportement
au fur et à mesure de la traversée de la section, et également de chercher des typologies de
conducteurs, tout en s’intéressant à la mise en place de l’ABV.
Afin de répondre au mieux à cette problématique, nous analyserons tout d’abord l’état de
l’art en ce qui concerne les véhicules autonomes, le calage de modèle ainsi que les facteurs
impliquant une variabilité de conduite. Puis nous verrons la provenance des données de
l’étude, comment analyser des données réelles avec notamment l’utilisation du filtrage, et
pour finir, nous présenterons les différents résultats et nous clôturerons cette étude par une
discussion sur les perspectives d’évolutions.
12
14.
Chapitre 1
État del’art sur le sujet
Pour arriver à qualifier les comportements de conduite et l’utilisation de l’ABV, nous
devons nous intéresser aux véhicules autonomes, puis aux raisons de la variabilité de conduite.
Nous verrons ensuite les différents modèles de simulation du trafic. Mais avant cela, nous
commencerons par consacrer le premier paragraphe aux définitions et notations.
1.1 Définitions et notations
Pour commencer nous allons ici définir des notions et des notations utilisées dans de ce
rapport. Toute cette partie est issue de l’ouvrage [Buisson and Lesort, 2010].
Figure 1.1 – Trajectoire d’un
véhicule dans le plan (x,t)
[Buisson and Lesort, 2010]
1.1.1 Les variables du trafic
Notion de trajectoire
Pour étudier le trafic, on peut s’intéresser à un vé-
hicule choisi parmi les autres. On pourra alors sché-
matiser l’évolution du véhicule sur la voie par sa
trajectoire. Elle correspond à l’ensemble des points
successifs de l’espace que le véhicule occupe au cours
du temps. On s’intéresse souvent à la position lon-
gitudinale x(t) par rapport à la voie. On parle donc
couramment de trajectoire dans un plan (x,t) On
peut représenter ces mesures sur la figure suivante.
À partir de cette mesure de la position à chaque
seconde, on peut dessiner une trajectoire entre les
points mesurés.
13
15.
Figure 1.2 –Trajectoire de véhicules issue du projet MOCoPo
Variables et caractéristiques d’un véhicule
• La position d’un véhicule mesurée à un instant est notée x(t) et y(t)
• La vitesse d’un véhicule est la dérivée de la position par rapport au temps : v(t) = dx
dt
mesuré en m/s. La vitesse désirée correspond à la vitesse à laquelle le conducteur
aimerait circuler. Lors de congestion, la vitesse désirée est supérieure à la vitesse
réelle.
• L’accélération est la dérivée de la vitesse d’un véhicule par rapport au temps et donc
la dérivée seconde de la position par rapport au temps : a = d2x
dt2 mesuré en m/s2
• Le temps de parcours individuel est la mesure du temps passé par un véhicule pour
aller d’un point A à un point B. C’est donc l’écart entre la date d’entrée sur le tronçon
(A) et la date de sortie du tronçon (B). Du temps de parcours individuel entre deux
points, on peut déduire la vitesse moyenne individuelle sur ce tronçon qui est égale à
la distance AB divisée par le temps de parcours.
14
16.
Variables concernant deuxvéhicules
Lorsqu’un véhicule suit un autre véhicule, on parle de véhicule suiveur et de véhicule leader
ou de véhicule suivi. On peut les observer de deux manières complémentaires l’une de l’autre :
• en un instant t ; dans ce cas, on mesure la distance entre ces deux véhicules. Ici peut
intervenir la longueur du véhicule. Ceci conduit :
— soit à l’espacement ou à la distance inter-véhiculaire (qui est la distance entre deux
avants ou arrières de véhicules et qui se dit en anglais “spacing”),
— soit au créneau (en anglais : “space gap”), qui est la distance séparant l’arrière d’un
véhicule de l’avant du véhicule qui le suit ;
• en un point x ; dans ce cas, on mesure le temps séparant les passages de deux véhicules
successifs. De la même manière on peut mesurer :
— le temps séparant le passage de l’avant ou de l’arrière de deux véhicules successifs :
le temps inter-véhiculaire,
— le temps séparant le passage de l’arrière d’un véhicule du passage de l’avant du
véhicule suivant. Ce dernier est appelé intervalle, créneau temporel ou “ time gap”
en anglais.
— On défini de plus, un indicateur de sécurité de conduite qui est le temps avant
collision ou “time to collision” en anglais. Il est calculé en considérant que le véhicule
leader et suiveur gardent leur vitesse mesurée à l’instant t. Il est établit en divisant
la distance entre ces deux véhicules à l’instant t par la différence de vitesse entre
le suiveur et le leader. Il est donc défini uniquement quand le suiveur a une vitesse
supérieur au leader.
Figure 1.3 – A gauche : Trajectoires de deux véhicules : un véhicule leader et son véhicule
suiveur ; à droite : définition géométrique du temps avant collision [Buisson and Lesort, 2010]
15
17.
Figure 1.4 –Distributions des temps inter-individuels observées sur une autoroute au nord
de Marseille pour la voie centrale [Buisson and Lesort, 2010]
Congestion
Figure 1.5 – Les deux zones de
comportement du trafic routier
[Buisson and Lesort, 2010]
Il est possible de caractériser la congestion grâce
au diagramme fondamental du trafic qui s’appuie
sur des variables concernant un flot de véhicules.
On distingue :
— débit : nombre de véhicules passant pendant
une période de temps donnée en un point ;
— la concentration : nombre de véhicules pré-
sents à un instant sur une longueur de route
donnée ;
— la vitesse du flot : vitesse moyenne des véhi-
cules présents à un instant sur une longueur
de route donnée ;
Chaque état de trafic est caractéristique d’un point de ce diagramme. Ainsi, avec un couple
donné de concertation/vitesse observé, on peut qualifier le type de congestion, lequel se définit
comme un état de trafic où les véhicules ne peuvent pas rouler à leur vitesse désirée et où
l’état de trafic à un point donné dépend de l’état de trafic en aval.
16
18.
1.2 Les véhiculespilotés par ordinateur
Les chercheurs portent un intérêt certain aux véhicules autonomes. Il convient tout d’abord
en s’appuyant sur le papier [Olia et al., 2015] de faire la distinction entre véhicules automati-
sés, autonomes et connectés. Nous verrons par la suite les avantages des véhicules autonomes,
tant pour améliorer le trafic que pour la sécurité des usagers. Par la suite nous détaillerons
les différents types de communication entre les véhicules mais aussi avec l’infrastructure et
enfin nous nous intéresserons aux problèmes dus à la transition homme/machine.
1.2.1 Définitions
Pour commencer il faut donc distinguer trois types de véhicules :
— Les véhicules automatisés qui peuvent gérer eux-mêmes certaines tâches de conduite
par exemple le contrôle longitudinal avec le véhicule leader ou bien le freinage d’ur-
gence.
— Les véhicules autonomes capables de gérer toutes les tâches de conduite sans l’inter-
vention de l’homme et sans assistance extérieure.
— Les véhicules connectés qui peuvent avoir recours à des informations données par les
autres véhicules ou par l’infrastructure.
On imagine facilement que les véhicules automatisés sont les plus simples à mettre en
place. En effet, il existe déjà dans certains véhicules haut de gamme des tâches automatisées
telles que l’aide au stationnement. Cependant, il est nécessaire de mettre en oeuvre de lourds
moyens de recherche afin à mettre en place des véhicules autonomes. Ceux-ci pourraient évi-
demment être aussi connectés afin de recevoir des informations extérieures et donc optimiser
leur trajectoire en fonction des conditions de circulation.
1.3 La variabilité de conduite
Comme nous l’avons vu, il existe de nombreux modèles de trafic permettant de prendre
en compte la conduite moyenne des usagers. Néanmoins, la difficulté essentielle de la modé-
lisation du trafic routier vient de la variabilité des conducteurs et donc à leur différentes
réactions. Par exemple certains conducteurs seront beaucoup plus agressifs que d’autres
[Laval and Leclercq, 2010][Leclercq et al., 2014]. Il existe des études sur l’hétérogénéité des
conducteurs [Wang et al., 2010] qui montrent que les conducteurs peuvent avoir des styles
de conduite très différents et ne réagissent pas de la même façon en ce qui concerne certains
indicateurs comme l’accélération, la décélération ou la distance inter-véhiculaires.
17
19.
D’autres études s’intéressentà la tendance des véhicules à doubler [Bar-Gera and Shinar, 2005],
et montrent que la plupart des usagers doublent le véhicule leader lorsqu’il est plus lent d’au
moins 3km/h de moins que leur vitesse désirée. Mais le plus intéressant est de constater que
50% des véhicules vont jusqu’à augmenter leur propre vitesse afin de doubler un véhicule
qui pourtant roulait plus vite qu’eux. Cette étude montre bien la variabilité de conduite des
usagers ainsi que l’aspect agressif des automobilistes.
Un autre [Taehyung et al., 2011] présente les différents facteurs qui jouent un rôle dans la
conduite des usagers et tente de mettre en oeuvre des suggestions pour améliorer les modèles
de trafic. Les différentes variables prises en compte se distinguent en trois catégories. La
première regroupe toutes les conditions géométriques de la voie à savoir :
— Le type de route
— Le nombre de voies
— La localisation de la voie
— Le trafic
— Le type de véhicule
Ensuite un second groupe correspond à l’environnement :
— Le jour de la semaine
— L’heure
— La météo
Et pour finir le troisième groupe propose de mettre en commun les différentes caractéristiques
humaines :
— Le genre
— L’activité (le type de trajet)
— le nombre de personnes
Une étude [Vogel, 2003] porte sur l’analyse des temps inter-véhiculaires dans une intersec-
tion et montre là aussi que la variabilité de ces indicateurs est importante.
18
20.
1.3.1 Le bénéficedes véhicules autonomes
Régulation des conditions de trafic
Les intérêts des véhicules autonomes sont nombreux, nous allons aborder ici la régula-
tion de trafic. La comparaison entre des systèmes coopératifs et non coopératifs donne des
résultats intéressants [Demmel et al., 2012]. En se focalisant sur des indicateurs de time to
collision (TTC) [Kusano and Gabler, 2011] les auteurs montrent que le risque local d’ac-
cident est fortement réduit dans le cas de véhicules coopératifs puisque le conducteur est
prévenu 5 secondes avant un éventuel accident. Cette prévention peut s’effectuer par exemple
en plaçant des sièges vibrants ou avec des alertes lumineuses sur le pare-brise. Cela permet
donc au conducteur d’intervenir plus tôt. [Diakaki et al., 2015] montre également l’intérêt des
véhicules connectés.
De plus, [Olia et al., 2015]démontre l’intérêt du véhicule autonome avec une augmentation
significative de la capacité des voies lorsque que l’on forme des pelotons de véhicules. Par
exemple pour un groupe de 5 véhicules sur autoroute à 100 km/h on peut atteindre une
capacité de 8800 véhicules/h. Les auteurs étudient le rôle du nombre de véhicules dans le
peloton et étudie aussi l’impact du changement de voie coopératif.
Figure 1.6 – Capacité maximale en fonction de la taille du peloton en simulation
[Olia et al., 2015]
19
21.
Figure 1.7 –Diagrammes fondamentaux en fonction de la taille du peloton en simulation
[Olia et al., 2015]
Cet intérêt est également conjugué à la réduction de la congestion. En effet avec 10% de
pénétration de véhicules autonomes dans le trafic routier on peut s’attendre à 30% de km de
congestion en moins et pour 50% de pénétration de véhicules autonomes sur le parc de véhi-
cules, on pourrait atteindre 60% de km de congestion en moins [Hoogendoorn et al., 2014].
La sécurité des usagers
Les véhicules autonomes permettront aussi d’améliorer la sécurité des usagers. C’est le sujet
que traite l’article [Ma and Andréasson, 2005]. Cet article s’intéresse au risque des piétons
par rapport à des véhicules automatisés en fonction de la vitesse d’approche des véhicules.
Les résultats sont favorables à l’amélioration de la sécurité puisque dans ce cas, la vitesse des
véhicules est plus faible et donc diminue le risque d’accident mortel.
20
22.
Figure 1.8 –Risque d’accident mortel en fonction du débit et de la pénétration de véhicules
autonomes [Ma and Andréasson, 2005]
1.3.2 Interactions homme/machine
Dans le cas de conduite autonome, on peut imaginer que le véhicule pourra conduire sans
assistance du chauffeur. Néanmoins, lorsque la vitesse devient grande, le coût de l’équipe-
ment nécessaire est trop significatif. Ainsi, il est intéressant de limiter l’automatisation du
véhicule en dessous d’un seuil de vitesse. C’est ce que l’on appelle automatisation basse vi-
tesse [Glaser et al., 2012]. L’article présente cette méthode d’automatisation avec un seuil de
50km/h. Au-delà, le véhicule doit être repris en main. Ce seuil correspond à la vitesse pour
laquelle la caméra est capable d’assurer une détection d’obstacle à une distance maximale
de 40m. Cette distance est nécessaire pour avoir un champ de vision suffisant à cette vitesse
afin d’assurer la sécurité des usagers. Dans notre cas, nous nous limiterons à l’étude du com-
portement en file en mettant de côté le changement de voie faute de donnée suffisante pour
étudier ce phénomène.
21
23.
Le problème avecce type de système concerne la période de transition entre le pilotage
autonome et la conduite par l’automobiliste. Des études [Merat et al., 2014] prouvent qu’il
faut au moins 10 secondes pour laisser le temps au conducteur de reprendre la main. Ce
laps de temps permet ainsi à l’automobiliste de comprendre la situation de conduite lors-
qu’il doit à nouveau conduire alors qu’il était en train de faire autre chose (divertissement,
conversation ...).
Il existe aussi le problème d’acceptation par l’homme d’avoir un pilotage automatique
de son véhicule. Une étude récente [Le Vine et al., 2015] a démontré que les conducteurs
acceptaient moins facilement des pics d’accélérations importantes lorsque le véhicule était
conduit automatiquement que lorsque le conducteur effectuait lui-même l’action.
Le facteur humain est donc très important et c’est ce qu’explique l’article
[Hoogendoorn et al., 2014], qui étudie l’impact des comportements humains dans une confi-
guration avec les véhicules autonomes. Le conducteur devient au final spectateur du système
et n’est plus vraiment l’acteur principal.
Pour finir sur cette partie, il faut aussi prendre en compte le modèle utilisé dans le pilotage
automatique du véhicule. En effet, [Milanés and Shladover, 2014] montre qu’il faut s’attendre
à une instabilité du trafic lorsque plusieurs véhicules automatisés se suivent. L’article prend
l’exemple de l’utilisation du modèle IDM, lequel engendre des vagues de sur-congestion ap-
pelées plus simplement accordéons.
22
24.
1.3.3 Utilisation descommunications
Comme nous l’avons évoqué, les véhicules autonomes ou automatisés peuvent aussi être
connectés. On distingue deux types de communications :
— La communication V2V (Véhicule à véhicule)
— V2I (Véhicule à infrastructure)
Ces deux types de communication permettent de prendre en compte la situation de trafic
actuel à une distance plus grande et d’avoir un horizon temporel de prévision plus lointain, ce
qui permet d’anticiper les situations. L’article [Farah et al., 2012] met en évidence l’impact
de l’utilisation des communications V2I et montre le regain de sécurité assuré par l’utilisation
de cette technologie. Néanmoins, il existe des limites dans ces communications, notamment
le temps pour acheminer les informations, la portée maximale et la fiabilité des données.
Figure 1.9 – Schéma de principe de la communication V2I [Farah et al., 2012]
D’autres études se placent dans le contexte des communications V2V [Wang et al., 2014]
et démontrent qu’il est possible d’utiliser les réactions du véhicule leader pour en déduire le
comportement du deuxième leader. Il est donc possible d’effectuer des multi-anticipations et
d’optimiser l’accélération du véhicule pour la rendre la plus lisse possible, ce qui serait éga-
lement profitable pour un véhicule suiveur conduit manuellement s’il imite le comportement
du véhicule autonome.
23
25.
1.4 Calage demodèles
Les modèles de trafic sont très nombreux et tentent de reproduire de manière la plus
fidèle possible les trajectoires de conduite des véhicules. Ils permettent ainsi de modéliser
la poursuite, c’est à dire le comportement d’un véhicule par un autre véhicule appelé aussi
véhicule leader, mais également la trajectoire libre si aucun véhicule ne gêne la conduite.
Comme dans tous les modèles, différents paramètres sont à définir ; c’est ce qu’on appelle le
calage du modèle. Il faut donc essayer d’optimiser un jeu de paramètres pour correspondre
au mieux à la réalité. Ensuite il faut vérifier le calage avec un autre échantillon de données.
Dans notre cas, l’utilisation de modèle va nous permettre de caractériser la variabilité de
conduite en comparant la trajectoire réelle du véhicule à celle du modèle.
Figure 1.10 – Modèle de Newell - source wikipedia
Le modèle le plus simple ap-
pelé modèle de Newell se caracté-
rise par deux paramètres : le temps
de réaction du conducteur et la dis-
tance entre deux véhicules à l’ar-
rêt. Ce modèle est employé du fait
de sa simplicité. ). L’idée générale
du modèle de Newell est qu’il existe
une relation géométrique de trans-
lation entre la trajectoire du véhi-
cule leader et le véhicule suiveur.
Les paramètres moyens pour les conducteurs sont les suivants :
δ = 6.9 m
w = δ
τ
= 18 m/s
D’autres modèles peuvent utiliser jusqu’à 5 paramètres comme par exemple le modèle
IDM. Les papiers [Taylor et al., 2015] [Chiabaut et al., 2010] qui portent sur la variabilité de
conduite, tentent de caler le modèle de Newell de manière dynamique, c’est à dire en faisant
évoluer les paramètres du modèle dans le temps pour un même véhicule. C’est grâce à une
matrice de coût et avec un algorithme de type plus court chemin que les paramètres sont
calculés.
24
26.
Figure 1.11 –Modèle de Newell [Laval and Leclercq, 2010]
D’autres articles posent la question de l’échantillon minimal [Kesting et al., 2008a] pour
effectuer le calage d’un modèle. Certains s’intéressent également à l’impact de la méthode
utilisée pour le calage [Punzo et al., 2013].
D’autres auteurs tentent de mettre en place de nouveaux modèles en utilisant des variables
explicatives comme le temps inter-véhiculaires [Tordeux et al., 2010]. L’article présente un
modèle avec l’avantage de se baser sur une seule variable. On peut cependant se demander
si cela est suffisant face à des modèles plus complexes prenant en compte de nombreuses
variables, car on sait que la tâche de conduite est influencée par de nombreux paramètres
[Wang et al., 2011]. Pour finir sur le calage des modèles de trafic, il faut aussi s’intéresser à
l’analyse de sensibilité d’un modèle, c’est à dire comment le modèle évolue en fonction des
paramètres choisis et de la méthode pour les calculer [Kondyli et al., 2012].
25
27.
1.5 Conclusion
Pour conclureon se rend compte que les problématiques des comportements de conduite
ont été très largement étudiées grâce aux différents modèles de trafic mis en place comme
les modèles de Newell, IDM pour ne citer que les plus connus. On peut donc qualifier le
comportement de conduite en fonction des paramètres issus du modèle pour chaque véhicule.
Etant donné que le comportement de conduite s’adapte aux situations de trafic et de l’envi-
ronnement, il est aussi intéressant de s’occuper des causes de la variabilité de conduite pour
ainsi tenter de faire des classes de type de conduite.
Les notions de modèles de trafic et des véhicules autonomes abordés dans cette partie, vont
nous permettent de discerner l’impact de l’ABV ainsi que mettre en exergue les différents
types de comportements de conduite qui permettront de caler les modèles afin de faire de la
simulation. Nous allons maintenant aborder la partie concernant les données. Nous verrons
que le filtrage des données issues de la réalité représente une part non négligeable de travail.
26
28.
Chapitre 2
Provenance etutilisation des données
2.1 Etat de l’art sur le filtrage et la reconstruction de
trajectoire
Le problème du filtrage et de la reconstruction de données est souvent abordé par les
chercheurs. A partir du moment où les données utilisées sont issues de la réalité et non de
la simulation, il faut s’attendre à des erreurs telles que des valeurs aberrantes ou données
manquantes. Étant donné que ces données proviennent de différents capteurs, il est possible
d’avoir des erreurs de mesure. De plus, les données issues des capteurs sont discrètes en temps,
ce qui peut poser problème lorsque l’on observe un changement physiquement impossible
entre deux pas de temps. Ainsi la discrétisation du phénomène physique continue amplifie
les erreurs. On peut dire qu’il y a présence de bruit dans les données, bruit qui doit être
filtré. Il est également possible qu’une erreur systématique, un biais, soit contenue dans les
données. Ainsi on peut dire que le bruit est inhérent à la mesure réelle et peut potentiellement
influencer de manière non négligeable les données. Nous allons donc nous intéresser ici aux
différentes méthodes de filtrage concernant les erreurs de mesure mais également au problème
de l’uniformisation du pas de temps dans les données réelles.
2.1.1 Erreurs de mesure
Dans cette partie nous allons nous appuyer sur la présentation de l’état de l’art présenté
dans l’article [Marczak, 2012] qui permet d’avoir une vue d’ensemble des différentes tech-
niques de filtrage utilisées.
27
29.
Présentation des donnéesNGSIM
La difficulté du filtrage correspond au compromis entre supprimer les données aberrantes
et conserver la réalité des données. Dans différents articles scientifiques, les données NGSIM 1
sont employées. Ces données américaines sont composées des trajectoires de véhicules issues
d’images de caméra vidéo. 2
. Le post traitement des images permet de reconstruire la tra-
jectoire complète du véhicule. Ces données étant libres de droit, de nombreuses études se
basent sur celles-ci. Dans notre cas, nous allons utiliser des données dont nous détaillerons
leur provenance.
Méthode de filtrage
Une première méthode pour filtrer les données de trajectoires et en particulier les don-
nées NGSIM est utilisée par [Punzo et al., 2011]. Elle se base sur l’analyse du jerk (dérivée
de l’accélération d’un véhicule), qui doit physiquement être inférieur à un seuil et ne doit
pas changer de signe sur une fenêtre temporelle fixée à une seconde. En effet, un conduc-
teur ne peut pas à la fois décélérer puis accélérer en l’espace de moins d’une seconde. Ces
deux contraintes permettent de supprimer des erreurs aberrantes. Une analyse spectrale est
également réalisée, permettant de visualiser le bruit contenu dans les hautes fréquences.
Une autre possibilité consiste à détecter les erreurs aberrantes et physiquement impossibles
(par exemple une accélération supérieure à 30m/s2
), à supprimer ces valeurs et à faire une
interpolation avec les valeurs voisines qui sont quant à elles acceptables. Ensuite en partant
de l’accélération il faut revenir à la trajectoire et ainsi décaler les observations initiales pour
qu’elles respectent la nouvelle valeur d’accélération calculée. Par la suite un filtre-passe bas
d’une fréquence donnée est appliqué pour supprimer le bruit des données. Cette méthode
employée dans l’article [Montanino, 2013] permet d’obtenir des données filtrées qui sont toutes
physiquement acceptables mais elle modifie aussi les données trajectoires d’origine de manière
importante.
La méthode utilisée dans l’article [Marczak, 2012] consiste à utiliser des polynômes, appelés
splines, pour filtrer la trajectoire des véhicules. Des intervalles sont définis lorsque la trajec-
toire sort des droites de sécurité.Un polynôme différent est défini par intervalle. Cela permet
d’obtenir de très bons résultats. En effet, dans cette étude, différents indicateurs permettent
de comparer cette méthode aux autres citées précédemment.
1. Next Generation SIMulation program
2. Source : US Department of Transportation
28
30.
Figure 2.1 –Liste des indicateurs permettant la comparaison entre les différentes méthodes
[Marczak, 2012]
Figure 2.2 – Résultats obtenus des indicateurs en fonction de la méthode de filtrage
[Marczak, 2012]
29
31.
Figure 2.3 –Résultats obtenus des indicateurs en fonction de la méthode de filtrage
[Marczak, 2012]
30
32.
Dans le mêmeesprit, la thèse [Vieira Da Rocha, 2013] définit une méthode de filtrage en
imposant des accélérations constantes par morceaux sur des intervalles optimisés. Des limites
physiquement acceptables en termes de valeur pour l’accélération et la vitesse sont posées.
Cela permet d’obtenir un profil d’accélération très simplifié mais qui reste dans la marge
d’erreur des données brutes.
Figure 2.4 – Trajectoire, vitesse et accélération filtrées par des splines
[Vieira Da Rocha, 2013]
Figure 2.5 – Résultats obtenus pour une
cardioïde bruitée [Garcia, 2010]
Pour finir une dernière méthode s’appuie
sur la méthode des moindres carrés et sur la
moyenne de la transformée en cosinus discrète
Elle semble très robuste et rapide, néan-
moins les notions nécessaires pour l’aborder
sont complexes [Garcia, 2010].
31
33.
2.1.2 Pas detemps fixe
En utilisant des capteurs, il est possible que les données ne soient pas enregistrées avec un
pas de temps fixe. Une méthode est utilisée dans l’article [Kesting et al., 2008b]. L’intervalle
de temps est estimé par rapport à la série temporelle des vitesses et à la variation des
accélérations.
Plus simplement, on peut penser utiliser des régressions linéaires entre les différents points
de mesure pour obtenir un pas de temps fixe. C’est ce qu’utilise cet article [Toledo et al., 2007]
. Dans ce cas, les trajectoires sont filtrées avec une régression qui donne plus ou moins de poids
aux points situés aux alentours du temps fixé. Les auteurs utilisent une fonction polynomiale
tri-cube pour distribuer les poids (voir page 41 de ce rapport). Ils filtrent la trajectoire avec
un polynôme et font une analyse de sensibilité en fonction du degré du polynôme ainsi que
la fenêtre temporelle choisie. Ce papier s’intéresse aussi à la sensibilité de la régression sur
les données manquantes et montre la capacité de cette méthode à retrouver des données
manquantes.
Figure 2.6 – Résultats de l’étude de sensibilité [Toledo et al., 2007]
D’autres méthodes consistent à filtrer les données grâce à des moyennes mobiles. Ces mé-
thodes permettent de supprimer les fluctuations à court terme pour éliminer le bruit des
données. Par contre, il a été démontré que cela induit un impact négatif si l’on utilise ces
données filtrées pour effectuer le calage des résultats sur un modèle et que cet impact est
plus limité si l’on utilise des moyennes gaussiennes ou exponentielles [Kesting et al., 2008b]
[Duret and Chiabaut, 2008].
32
34.
2.2 Provenance desdonnées de l’étude
Les données utilisées durant ce travail de fin d’étude sont issues du projet de recherche
MOCoPo (Mesure et mOdélisation de la COngestion et de la Pollution). Ce projet s’articule
autour d’une équipe de chercheurs et consiste en trois tâches de mesure et quatre tâches
de modélisation. Dans ce rapport, nous ne nous intéressons qu’à la mesure de trajectoire de
véhicules. L’objectif principal du projet est d’améliorer la modélisation de la congestion et des
nuisances associées aux autoroutes urbaines. Pour cela un recueil de données a été effectué
au niveau de la RN 87 (dans la banlieue sud de Grenoble) en septembre 2011. Un hélicoptère
équipé de trois caméras haute définition a filmé pendant plusieurs heures la rocade.
Figure 2.7 – Organisation des prises de vues depuis l’hélicoptère [Rap, 2011]
Trois zones ont été choisies afin d’avoir un panel suffisant pour les données. La première
zone est un convergent, c’est à dire avec une entrée sur l’autoroute. La deuxième zone se
situe en section courante entre une entrée et une sortie. Enfin la dernière zone est une zone
d’entrecroisement avec deux entrées et trois sorties. Les heures de recueil de données ont
été choisies afin de constater des périodes de congestion. Ainsi un premier travail en amont
concernait l’étude des données existantes sur cette portion de route. Les données sont donc
obtenues pour des horaires considérés comme des heures de pointe, c’est à dire entre 7H30 et
9H40 et entre 16H45 à 17H45. Au final après un premier tri, c’est au total 7H10 de données
qui sont complètement disponibles pour un recueil de données s’échelonnant du lundi 12 au
vendredi 16 septembre 2011.
33
35.
Figure 2.8 –Zones d’étude [Rap, 2011]
2.3 Traitement de données
Le recueil de vidéo par hélicoptère a donc dû être traité afin d’exploiter au mieux les
données. Pour cela quatre phases de travail ont été nécessaires.
2.3.1 Correction des aberrations et stabilisation
La première phase concerne la correction des aberrations optiques et la stabilisation de
l’image. En effet pendant son vol, l’hélicoptère n’étant pas parfaitement fixe, il faut stabiliser
les images recueillies. Pour cela on corrige d’abord la sphéricité de l’image puis on stabilise
l’image par rapport à une image prise comme référence. Enfin on considère une région d’intérêt
afin de limiter les images sur cette zone durant tout le recueil de données.
Figure 2.9 – Première phase de correction [Rap, 2011]
34
36.
2.3.2 Identification desvéhicules
Cette seconde étape vise à identifier les objets mobiles d’une image à l’autre par rapport
à une image de référence et ainsi identifier chaque véhicule. Il faut ensuite mettre en relation
les différents objets afin de construire réellement la trajectoire de chaque véhicule.
Figure 2.10 – Deuxième phase de correction [Rap, 2011]
Avec cette méthode on peut donc balayer l’ensemble des trajectoires des véhicules avec des
indicateurs comme la longueur, la largeur et la position du véhicule à chaque instant.
35
37.
2.4 Critique dela méthode de recueil de données
Malgré une méthode de recueil qui comme on le verra par la suite, donne des résultats
satisfaisants, on peut d’ores et déjà critiquer ses points faibles. Tout d’abord, on constate
que toute la méthode se fonde sur le recueil d’images et de vidéos ; aucune autre source de
données ne vient confronter les trajectoires calculées. On aurait pu penser notamment à la
mise en relation avec les données des boucles électromagnétiques de la route afin de vérifier
la précision de données.
Ensuite, malgré les caméras embarquées sur l’hélicoptère en très haute définition (2448*2050
pixels) il existe une imprécision assez importante. Ainsi la position d’un véhicule n’est connue
au mieux qu’à 20 cm près à cause de la longueur de la zone de 500m. A cela, il faut rajouter
les imprécisions liées à la correction des images et notamment à la phase de stabilisation, qui
engendre des impressions plus importantes en faisant une distorsion de l’image pour corriger
sa sphéricité. De plus chaque véhicule est identifié grâce à un « blop ». C’est en fait un
octogone censé représenter le contour du véhicule. Là encore, cette méthode engendre des
imprécisions de mesure, car on se focalise sur le centre de gravité de cet octogone pris comme
le centre de gravité du véhicule alors qu’un petit décalage du contour de l’octogone peut
générer une modification du centre de gravité.
De plus, l’enveloppe du véhicule peut être modifiée, ce qui provoque un regroupement de
deux véhicules pour un même « blob » ou inversement (dédoublement de camions ou véhicule
avec une remorque). Ainsi pour un même véhicule, la taille du « blop » (et donc de l’octogone
censé représenter son contour) peut varier et donc la position de son centre de gravité n’est
pas forcément bien calculée.
Figure 2.11 – Représentation des octogones
36
38.
Ensuite, il ya l’étape d’identification des véhicules qui peut poser des problèmes notam-
ment avec les effets d’ombres sur la route, entraînant la possibilité de non identification du
véhicule par rapport à l’image de fond. Comme on s’intéresse à des périodes de congestion,
il est possible que des véhicules soient complètement à l’arrêt pendant un temps donné. Ces
véhicules ne sont alors plus détectés puisque le principe même de l’algorithme d’identification
de véhicule se base sur la mobilité du véhicule d’une image à l’autre.
Pour pallier aux différents problèmes soulevés ci-dessus, une dernière étape de traitement
des données a été mise en place dans le projet MoCoPo. C’est une étape de correction
d’erreurs, notamment lorsque l’identification d’un véhicule se perd ou est erronée. Cette
étape n’est pas encore finalisée puisqu’elle doit se faire manuellement et comme la taille des
échantillons de données est très importante, cette tâche est donc chronophage.
2.5 Sélection de l’échantillon de véhicules
Pour commencer, comme nous avons pu le constater, les données du projet MoCoPo pré-
sente des imprécisions. Il faut donc corriger certaines données afin d’obtenir des trajectoires
correctes pour ensuite s’intéresser aux comportements extrêmes des véhicules. Le travail s’est
focalisé sur la zone 1 qui présente un convergent.
Figure 2.12 – Zone étudiée
37
39.
2.5.1 Type d’erreursrencontrés
Le premier objectif de la correction des données consiste à corriger les erreurs de bruit
introduites par la stabilisation de l’hélicoptère, la reconnaissance d’images et l’identification
des véhicules. On peut observer une imprécision dans la détermination de la position des
véhicules. De plus leur identification est biaisée à cause notamment des ombres sur la route.
Figure 2.13 – Problème de détection de véhicule : dédoublement
Figure 2.14 – Problème de détection de véhicule : perte de reconnaissance
38
40.
2.5.2 Sélection pourl’étude des comportements individuels
Tout d’abord le travail réalisé concernait la sélection de véhicules avec une trajectoire
correcte afin de limiter les problème ci-dessus. Plusieurs critères ont dû être mis en place
pour choisir ces véhicules spécifiquement :
— La trajectoire du véhicule doit être enregistrée pendant au moins 120 secondes, soit 2
minutes. Cela correspond au temps minimal de traversée de la zone étudiée. Ce critère
permet de mettre de côté des véhicules dont la détection ne s’est pas faite tout au long
de la traversée de la zone par le véhicule.
— La trajectoire doit commencer au début du tronçon et se finir à la fin. Ce critère
permet d’éliminer les résidus de véhicules ayant été enregistrés pendant plus de 120
secondes mais n’ayant pas été identifiés du début de leur entrée sur la zone jusqu’à
la fin (par exemple un véhicule très lent ayant été enregistré au milieu du tronçon
pendant 250 secondes au moins).
— L’identification du véhicule ne doit pas se perdre plus d’une seconde. Ce critère permet
de supprimer les mauvaises identifications de véhicule. Par exemple un premier véhi-
cule est identifié sous le numéro 42 et on perd son identification pendant 5 secondes
puis il réapparait quelques mètres plus loin. Dans ce cas, on ne peut être certain que
c’est bien le même véhicule qui est identifié, on va donc mettre ce type de véhicule de
côté.
— Les variations de taille de « blob » (octogone autour du véhicule) doivent être faibles.
Ce critère permet d’éviter de sélectionner des véhicules ayant subi un dédoublement
de leur octogone avec un véhicule voisin.
— La moyenne de la taille du « blob » doit être faible. Ce critère permet de mettre de
côté les camions qui présentent une taille plus importante que les voitures.
Remarque : les différents seuils mis en place pour ces critères ont été testés afin d’être
physiquement acceptables et permettre de ne sélectionner que les véhicules qui paraissaient
intéressants quitte à laisser de côté un grand nombre de données. Les résultats montrent bien
que ce premier tri est assez drastique puisque sur une heure d’enregistrement il y a 24 000
traces de véhicules repérés par l’algorithme d’identification de véhicules et ce filtrage n’en
sélectionne que 1000.
39
41.
2.5.3 Sélection pourl’étude des comportements collectifs
Ici, nous avons focalisé la sélection avec les deux criètres suivants :
— La présence d’un même couple leader/suiveur doit durée pendant au moins 30 se-
condes.
— La distance qui sépare ces deux véhicules doit être de moins de 50m. En effet au delà
de cette distance et aux vues de la vitesse maximale sur la zone (60km/h), on est sûr
que le véhicule leader n’est pas détecté et que l’on détecte le deuxième ou troisième
leader.
2.5.4 Conclusion de la sélection de l’échantillon
Nous avons donc choisi d’analyser les données non complètes et non continue mais en
sélectionnant des trajectoires pour lesquelles les observations permettaient d’attendre
nos objectifs. On a donc réduit l’échantillon de départ de manière drastique.
40
42.
2.6 Corrections deserreurs
Plusieurs techniques ont été envisagées afin de répondre à ce problème. La première et
la plus simple, est l’utilisation d’une moyenne glissante qui correspond à un filtre passe-bas
et permet de supprimer les oscillations haute fréquence et donc le bruit des données. Afin
d’améliorer cette méthode, une pondération a été effectuée entre les points en utilisant à la
loi gaussienne. Une deuxième méthode qui donne de meilleurs résultats a été employée pour
lisser les trajectoires des véhicules par des polynômes [Vieira Da Rocha, 2013] (voir page 31
de ce rapport).
2.6.1 Méthode 1 : moyenne glissante
Démarche
Cette méthode correspond à l’utilisation de moyenne glissante. Voici la démarche :
1. On commence par choisir un pas de temps. Dans notre cas, les données étant enregis-
trées à environ 20 Hz mais avec un pas de temps non fixé, on va donc choisir 10 Hz
pour avoir un nombre de points raisonnable et une bonne représentation des données
brutes ;
2. Pour chaque instant (par exemple t=0s, t=0.1s ...), on va définir une fenêtre temporelle
dans laquelle on va rechercher les données brutes ;
3. On calcule ensuite un coefficient de pondération pour chaque point en fonction d’une
fonction que l’on a choisie (ici une gaussienne dont l’écart type est un paramètre à défi-
nir). D’autres personnes ont par exemple choisi une fonction tri-cube : [Toledo et al., 2007]
(voir page 32 de ce rapport).
Figure 2.15 – Fonction tri-cube [Toledo et al., 2007]
4. On calcule ensuite la moyenne pondérée par ces coefficients pour obtenir la valeur
filtrée de la position du véhicule pour le temps donné.
5. On réitère la procédure pour chaque pas de temps et pour chaque véhicule.
41
43.
De manière schématiquela démarche est la suivante :
Figure 2.16 – Méthode de correction d’erreur
Résultats
Les résultats obtenus sont les suivants
Figure 2.17 – Courbe (X,Y)
42
Discussion
La sensibilité desrésultats aux choix de la fenêtre de calcul temporel et de l’écart type de
la gaussienne utilisée est le principal inconvénient de la méthode. Plus la fenêtre employée
est grande, plus les trajectoires vont être lissées et donc les maxima d’accélérations réduits.
Les résultats présentés ci-avant ont été réalisés pour un écart type fixé à 1.5s et une
fenêtre temporelle de calcul qui permet de prendre en compte 97% de la loi gaussienne. Ces
paramètres sont issus d’une analyse de sensibilité que nous allons présenter.
Pour réaliser cette étude, nous avons fait varier l’écart type de la loi gaussienne et nous
avons observé les résultats sur la vitesse et l’accélération. Ayant des indicateurs qui corres-
pondent aux trajectoires physiquement acceptables [Marczak, 2012], on peut alors choisir un
paramètre qui permet d’être dans la zone acceptable tout en évitant de sur-filtrer les résul-
tats, ce qui engendre la suppression des comportements extrêmes. Voici les résultats obtenus
pour la vitesse :
Figure 2.19 – Vitesse en fonction de l’écart type
44
46.
On remarque quela vitesse est assez dépendante du choix d’écart type. Néanmoins, les
écarts types trop faibles ne permettent pas de supprimer le bruit dans les données puisque
des variations de vitesse sont trop présentes (surtout entre 10 et 30 secondes pour la courbe
en bleu cyan). On peut également s’intéresser à l’accélération.
Figure 2.20 – Accélération en fonction de l’écart type
Ici encore, on remarque que l’utilisation d’un écart type faible engendre des comporte-
ments irréalistes avec des accélérations très élevées et qui changent de signe plusieurs fois par
seconde.
Conclusion
La méthode de moyenne glissante est plutôt intéressante et donne des résultats corrects.
Par contre, ceux-ci sont trop dépendants du choix de l’écart type qui modifie complètement
les valeurs de la vitesse et de l’accélération. Notamment dans notre cas où l’on s’intéresse à
des valeurs extrêmes d’accélérations ou de décélérations afin de caractériser la variabilité de
comportement.
45
47.
2.6.2 Méthode 2: utilisation de splines
Par la suite, une autre méthode de filtrage a été utilisée. Elle s’appuie sur la méthode des
I-spline [Marczak, 2012] (voir page 28 de ce rapport) ce qui permet d’approcher la distance
totale parcourue à chaque instant par des polynômes. Cette méthode nécessite une marge
d’erreur fixée (ω), puis calcule, pour une trajectoire, des intervalles qui seront approchés par
le même polynôme. Dans notre cas, on sait que la position obtenue grâce aux données filmées
par hélicoptère est connue à l’erreur de mesure près. Ainsi la marge utilisée correspond à
l’erreur des données de mesure soit 20cm.
Démarche
Cette méthode s’appuie sur les étapes suivantes :
— On cherche à définir les intervalles optimisés pour filtrer la trajectoire. Grâce à la
marge d’erreur, on construit une bande autour des données brutes.En faisant passer
une droite dans cette bande donnée, on définit un nouvel intervalle dans le cas où la
droite coupe la bande :
Figure 2.21 – Calcul des intervalles [Marczak, 2012]
— On va ensuite réitérer le même processus pour chaque intervalle considéré en calant
un polynôme par rapport à la trajectoire d’origine.
46
48.
La méthode utiliséedans notre cas est quasiment la même que celle présentée ci-dessous
sauf que le nombre d’intervalles est fixé. Celui-ci est calculé en fonction de la marge d’erreurs
ω. En effet, on autorise le polynôme de la nouvelle trajectoire à sortir de la bande d’erreurs
pour un nombre limité de points (en pourcentage par rapport au nombre de points totaux).
Nous verrons par la suite l’étude de sensibilité de ce paramètre. Cela permet d’avoir des
trajectoires filtrées correctes avec des données brutes très bruitées. Afin d’être plus explicite,
voici un exemple où le polynôme dépasse la bande fixée :
Figure 2.22 – Exemple de trajectoire qui sort de la marge d’erreur
Dans certains cas, le dépassement de ces marges est nécessaire. Certaines valeurs brutes
sont complètement aberrantes. Il parait donc important de pouvoir sortir de cette bande d’er-
reur à certains moments afin d’obtenir une trajectoire respectant des valeurs physiquement
acceptables pour l’accélération [Marczak, 2012] (inférieure en valeur absolue à 3m/s2
).
47
Figure 2.24 –Résultats obtenus avec les splines
Discussion
Dans le cas de la deuxième méthode, les trajectoires obtenues étant polynomiales, l’accé-
lération est beaucoup plus simple à calculer. Néanmoins, cette méthode est aussi paramétrée
par le pourcentage de points dépassant la marge fixée. On doit également faire l’étude de
sensibilité de ce paramètre. On va alors, pour un véhicule donné, faire varier ce pourcentage
de 1 à 16% et voir l’impact que cela engendre sur le profil de la vitesse et de l’accélération.
49
51.
Figure 2.25 –Vitesse en fonction du pourcentage de dépassement au-delà de la marge
d’erreur
50
52.
Figure 2.26 –Accélération en fonction du pourcentage de dépassement de la marge d’erreurs
On remarque tout d’abord que le paramètre a beaucoup moins d’influence que n’en avait
l’écart type dans la première méthode. Plus les accélérations sont importantes, plus le pour-
centage de points pouvant sortir de la marge fixée est important Ainsi, pour obtenir des
valeurs physiquement acceptables, une marge de 5% est un bon compromis.
51
53.
2.6.3 Amélioration dela méthode
Pour perfionner au mieux la méthode filtrage, nous avons dans la deuxième partie du stage,
modifié la méthode décrite ci-dessus. Voici les différentes étapes de filtrages :
Figure 2.27 – Amélioration de la méthode de filtrage - source [Buisson et al., 2016]
La méthode est décrite en détail dans l’article [Buisson et al., 2016] que vous retrouverez
en annexe. Voici quelques résultats obtenus pour un véhicule :
Figure 2.28 – Véhicule 18 :(a) profil (x,t) ; (b) profil (y,t) ; (c) profil (x,y) ; (d) vitesse en
m/s ; (e) accélération en m/s2 ; (f) jerk en m/s3 - source [Buisson et al., 2016]
52
54.
2.6.4 Conclusion surla méthode employée
Après étude des différents résultats, il semblerait que la méthode de Spline grâce au filtrage
polynomial, donne des accélérations physiquement plus acceptables que la première méthode.
On choisira donc de travailler avec la méthode 2 dans la suite de l’étude. L’amélioration de la
méthode 2 est plus robuste et permet de bien prendre en compte le changement de file ainsi
que la géométrie tournante de la voie.
Durant cette partie nous avons pu voir la difficulté du filtrage des trajectoires. Nous avons
étudié deux méthodes de filtrage en essayant de mettre en exergue leurs avantages et incon-
vénients. De plus, nous nous sommes intéressés aux variables permettant de caractériser la
variabilité de conduite pour enfin étudier l’un des modèles de poursuite. Nous allons mainte-
nant analyser les résultats de l’étude.
53
Chapitre 3
Présentation desrésultats et discussions
Dans cette partie, nous allons aborder les différents résultats qui permettent de caractériser
la variabilité de conduite. Cette étude porte donc sur les données issues du projet MocoPo sur
la zone 1 (voir chapitre 2.5). Les différents résultats sont obtenus avec le logiciel Matlab c .
3.1 Rappel de l’échantillon
Voici les rappels sur l’échantillon choisi :
Date 16 septembre 2011 Durée 1H
Lieu Banlieu Nord-Est de Grenoble Route RN 87
Longueur de la zone environ 500m Zone 1
Nombre de l’échantillon 942 véhicules Pas de temps 0.1 s
Les données de vitesse moyenne et de répartition par voies sont les suivantes :
Figure 3.1 – Répartition des usagers
En ce qui concerne la méthode de fil-
trage, on a choisi de prendre la méthode
des splines avec des polynômes de degré
4 en autorisant 5% des valeurs à sortir
de la marge d’erreur fixée à 20cm.
55
57.
3.2 Variables collectives
3.2.1Étude de la distribution de vitesse
Pour commencer, nous allons nous intéresser à la vitesse des usagers. Comme nous l’avons
vu, l’automatisation basse vitesse des véhicules est l’un des moyens pour aller vers un véhicule
autonome. Cependant, cette méthode oblige à définir un seuil de vitesse au-dessus duquel le
conducteur doit reprendre la main sur l’ordinateur et doit être en condition de mener à bien
sa tâche de conduite. Or, des études ont montré qu’une reprise en main nécessite au moins
5 à 10 secondes voire même 20 seconde en fonction du conducteur et de l’activité qu’il était
en train de réaliser [Merat et al., 2014].
Il est donc plus judicieux de ne pas effectuer de reprises en main, afin d’éviter de devoir
prévenir le conducteur trop à l’avance. De plus, si la reprise en main est très fréquente, le
système d’automatisation basse vitesse n’a plus d’intérêt. C’est pourquoi il est intéressant
d’étudier la vitesse des véhicules dans la situation de trafic des données.
Figure 3.2 – Distribution des vitesses expérimentées par les usagers
La distribution des vitesses est présentée sur le graphique ci-contre. Elle regroupe toutes
les vitesses expérimentées par les usagers à chaque pas de temps. On remarque tout d’abord
que les vitesses ne dépassent pas les 20m/s soit environ 72km/h. De plus la vitesse moyenne
est de 32 km/h, on peut ainsi justifier le fait que l’on se situe en congestion puisque la vitesse
réglementaire sur la voie est de 70km/h. On observe également que la distribution semble
uniforme pour des vitesses inférieures à 12m/s. On a donc de nombreux véhicules à vitesse
faible voire très faible et quelques usagers avec des vitesses dépassant les 50 km/h.
56
58.
3.2.2 Étude dela vitesse moyenne
Figure 3.3 – Vitesse moyenne des usagers sur le tronçon en fonction de leur date d’entrée
sur la zone - source [Rivoirard and Buisson, 2016]
La courbe ci-dessus présente la vitesse moyenne des usagers lors de leur traversée de la zone
en fonction de leur date d’entrée. On remarque que les vitesses moyennes sont très variables
en fonction du temps. La congestion est donc plus ou moins forte en fonction du temps.
57
59.
3.2.3 Étude dela vitesse instantanée
La figure ci-dessous représente la fonction de répartition empirique de la vitesse. On a
tracé la courbe verte qui correspond à la vitesse minimale et la noire à la vitesse maximale
pour chaque usager. C’est à dire que pour la traversée donnée d’un véhicule, on regarde son
profil de vitesse, on retient la vitesse minimale et maximale qu’il a expérimentée. On stocke
également tous les déciles de vitesse. Ensuite en réitérant ce procédé sur tous les véhicules,
on peut tracer les fonctions de répartition présentées ci-dessous.
Figure 3.4 – Fonction de répartition empirique de la vitesse
On remarque tout d’abord que plus de 30% des véhicules expérimentent une vitesse quasi-
ment nulle. On voit également que 70% des usagers n’expérimentent pas de vitesse supérieure
à 50km/h. Ainsi en plaçant un seuil de vitesse pour l’ABV à 50km/h, on est sûr que 70%
des personnes n’auront pas de reprise en main nécessaire dans la situation de trafic observée.
Pour finir sur l’analyse de cette courbe, on remarque que les déciles sont répartis de manière
homogène.
58
60.
3.2.4 Etude del’accélération
On va maintenant s’intéresser à l’accélération qui permettra de caractériser les comporte-
ments agressifs des automobilistes. Ici on observe très clairement une distribution normale
centrée à l’origine. On remarque qu’il existe une très faible part d’usagers ayant une accéléra-
tion inférieure à -2m/s2
et supérieure à 2m/s2
. On peut donc faire un test pour sélectionner
les véhicules “agressifs”, c’est à dire les véhicules qui expérimentent au moins une fois au cours
de leur traversée de la zone une accélération hors des bornes [-2m/s2
; 2m/s2
]. Ces résultats
pourront donc servir à caler des modèles de trafic pour faire de la simulation avec ABV. Dans
ce cas on prendra une distribution d’accélération suivant une loi normale de moyenne nulle
et d’écart type valant 0.75 pour les conditions spécifiques de trafic observés.
Figure 3.5 – Distribution de l’accélération
59
61.
Dans le mêmeesprit que pour la vitesse, on peut tracer les courbes de fonction de répartition
empirique qui concerne la décélération puis l’accélération. On observe alors des décélérations
moyennes variant de -1.5m/s2
à 0 m/s2
et des décélérations maximales variant de -5 à 0m/s2
.
Figure 3.6 – Fonction de répartition empirique de l’accélération
Figure 3.7 – Fonction de répartition empirique de la décélération
60
62.
3.2.5 Etude desTIV
Ici nous nous intéressons aux temps inter-véhiculaires en observant des couples de véhicules
leaders/suiveurs. L’échantillon a donc été réduit et se limite à 142 couples de véhicules. On
va donc tracer la distribution des TIV pour tenter de caractériser la variabilité de conduite
avec la présence de TIV court (<1 seconde).
Figure 3.8 – Distribution des TIV
On remarque qu’il y a peu de TIV courts (<1 seconde). On aperçoit ensuite deux distri-
butions. La première semble suivre une loi gaussienne dont la moyenne est de 1.7 secondes
avec un faible écart type. La deuxième, quant à elle, semble être une loi de poisson. Ensuite,
on peut dire que la première distribution correspond aux attentes que l’on aurait pu avoir
avec une moyenne des TIV légèrement plus courts que la réglementation (2 secondes). La
deuxième distribution peut venir du fait que le véhicule leader ne soit pas détecté. Ainsi, on
regarderait le TIV entre le suiveur et le deuxième leader, d’où des temps inter-véhiculaires
plus longs. On peut aussi penser que le phénomène d’accordéon visible lors des périodes de
congestions en soit la cause.
61
63.
3.3 Variables individuelles
Onpeut commencer par s’intéresser au profil de vitesse ainsi qu’à la distribution de vitesse
d’un véhicule moyen, c’est-à-dire sans accélération supérieure à la moyenne.
Figure 3.9 – Profil de vitesse du véhicule 18
Figure 3.10 – Distribution des vitesses du véhicule 18
62
64.
On remarque quepour ce véhicule, sa distribution de vitesse prouve qu’il expérimente au
cours de sa traversée à la fois des vitesses supérieures à 40km/h mais aussi des passages où la
vitesse est quasiment nulle. On constate bien qu’il existe une variabilité au sein même d’une
trajectoire d’un véhicule.
3.3.1 Utilisation du modèle de Newell
La première analyse des TIV nous a permis de mettre en évidence des véhicules ayant, au
cours de leur traversée de la zone, expérimenté des TIV très courts (<1 seconde). On peut
donc isoler une sous population de l’échantillon global. On va donc s’intéresser à un véhicule
en particulier et voir comment il se comporte avec le véhicule leader. Pour cela on utilise le
modèle de Newell, qui comme on l’a vu est un modèle très simple de poursuite.
Figure 3.11 – Trajectoire d’un véhicule dit agressif
Cet exemple nous montre bien que le véhicule suiveur avait laissé au départ une distance
très grande puis lorsque le leader a freiné (à partir de t=35s), la distance s’est réduite, le
TIV également et le suiveur est passé au-dessus du modèle de Newell avec des paramètres
standards à t=60s. Néanmoins, quelques secondes plus tard, l’inter-distance s’allonge ainsi
que le TIV. On remarque aussi que l’accélération du suiveur, lorsqu’il dépasse le modèle de
Newell n’est pas très importante.
63
65.
3.3.2 Discussion surle comportement des conducteurs
Au niveau de l’accélération, les résultats ont montré que pour les conditions de trafic
données, on pouvait isoler une certaine population ayant des accélérations plus importantes
que la moyenne. Néanmoins, ces accélérations ne sont révélées que par certaines conditions
de trafic. En effet, si le véhicule leader freine brusquement, le véhicule suiveur devra faire la
même chose. On considérera alors ces deux véhicules comme agressifs alors que le véhicule
suiveur ne l’est peut-être pas. Ceci limite de manière non négligeable notre analyse concernant
les accélérations.
En ce qui concerne l’agressivité des conducteurs, on remarque que l’utilisation du modèle
de Newell pour caractériser l’agressivité des conducteurs n’est pas très pertinente. Elle ne
tient pas compte des accélérations des conducteurs. En effet, nous avons montré que même si
un véhicule présente des distances inter-véhiculaires courtes, il n’effectue pas forcément des
accélérations importantes.
Finalement, même s’il existe des limitations non négligeables aux résultats de l’étude, on
pourra quand même les utiliser pour simuler des comportements puisque l’on a pu caractériser
la variabilité de conduite au niveau des comportements en termes de vitesse, accélération et
TIV.
64
66.
Chapitre 4
Mise enplace de l’automatisation basse
vitesse
Ce chapitre est en partie issu de l’article [Rivoirard and Buisson, 2016] mis en annexe. Il
est écrit entièrement en anglais pour répondre aux exigences du master. Certains textes déjà
rédigés sont issus de l’article tout comme certaines figures.
4.1 Preliminary results
As regards the implementation of the LSA, one can trace the number of takeover required
by the driver as a function of threshold limit (varying by 30 to 50 km/h). Although of course
we want to have the minimum of takeover since the section measures only 500m.
Figure 4.1 – Duration of takeover in seconds - source [Rivoirard and Buisson, 2016]
65
67.
Figure 4.2 –Duration of takeover in seconds - source [Rivoirard and Buisson, 2016]
It is noted that for most of the sample, it is validated. However, depending on the selected
threshold, the driver must take control at least once on the vehicle for 15-60% of the popu-
lation. Regarding the takeover time we see that it is 50% less than 5s. Takeover are often
short. It would then be appropriate to consider a threshold effect during the takeover to avoid
importuning the driver for a short time for driving task.An example of velocity profile which
the driver must have a takeover :
Figure 4.3 – Speed profile of the vehicle No. 6114 - source [Rivoirard and Buisson, 2016]
By plotting the threshold of 45km / h, it is noted that the driver will take twice hands on
autonomous driving, which is not acceptable to the short length of the zone.
66
68.
4.2 Studies withothers classical speed measurements de-
vices
As we have seen in the second section, there are other types of sensors to obtain individual
vehicles speed information. In our application case, the calculation of the number of takeovers
for low speed automation needs to monitor how many times the speed of a vehicle is above
a given threshold.
We degrade the full trajectory data to simulate the data obtained by different sensors. This
will allow us to see if these sensors make it possible to obtain the same results in terms of
number of takeovers as the ones we get with trajectory data taken as the ground truth. In
this case we can subsequently use the data from this sensor to study larger areas and thus
have a more representative sample of the different traffic and infrastructure conditions. As we
have seen in the second section, there are other types of sensors to obtain individual vehicles
speed information. In our application case, the calculation of the number of takeovers for low
speed automation needs to monitor how many times the speed of a vehicle is above a given
threshold.
We degrade the full trajectory data to simulate the data obtained by different sensors. This
will allow us to see if these sensors make it possible to obtain the same results in terms of
number of takeovers as the ones we get with trajectory data taken as the ground truth. In
this case we can subsequently use the data from this sensor to study larger areas and thus
have a more representative sample of the different traffic and infrastructure conditions.
4.2.1 Electromagnetic loops
This sensor can calculate an instantaneous velocity at a given crossing point. In addition the
data from these sensors are widespread and easily accessible. One wonders first the distance
needed to place the sensors in order not to change the number of results of takeovers.
But first we are interested in the position of the electromagnetic loops to see if it is impor-
tant in terms of measured speed. It is therefore interesting to study the distribution function
of the speeds obtained by the sensor depending on its position in the area. Indeed if the
distribution of observed speed is dependent on the position of the sensor, it does not make
sense to calculate the number of takeovers from electromagnetic loops.
67
69.
Figure 4.4 –Speed distribution function of all vehicles observed by virtual loops - source
[Rivoirard and Buisson, 2016]
This result shows a high variability in speed according to the position of the loop. We also
note that lower speeds are observed when X is low. This suggests that there is an upstream
bottleneck. Thus it is not possible to study the number of takeovers by taking into account
data loops because this type of sensor is too sensitive to the chosen position.
4.2.2 ALPR (Automatic License Plate Recognition)
This sensor can calculate travel times and therefore an average speed route in a given area.
So we can take an interest to degrade the velocity profile with only average speeds. We will
calculate the number of takeovers detected if this type of sensor were employed. We will vary
the distance between each sensor from 20m to 200m to see the sensitivity to this parameter.
Figure 4.5 – Number of takeovers detected for a threshold of 50 km/h - source
[Rivoirard and Buisson, 2016]
68
70.
We can seethat the percentage of detection decreases sharply with the distance between
ALPR. Thus, even by placing a sensor for each 100 m one can only detect 10% of the needed
takeovers, which is not acceptable (indeed the real number of takeovers is of 30 % of the
sample). Furthermore in the current configurations, groups of ALPR are often distant of
several hundred meters because of the cost of the equipment. Thus, it is not possible to use
these data for this case of application.
4.2.3 GPS data
The interest of GPS data is that the sensor is placed on board the vehicle. Similarly to
the previous case, we study the degradation of the trajectory data to mimic the GPS data.
This implies to have fixed time steps of observation and needs a lower number of observed
vehicles. Time step of GPS sensors embedded in vehicles is of the order of one second or
more.
Figure 4.6 – Number of takeover detected for a threshold at 50km/h if all vehicles are
equipped with GPS - source [Rivoirard and Buisson, 2016]
We observe that the detection percentage of takeover does not degrade too quickly with
the value of the time step. Indeed even with GPS data taken every second, we can detect
90% of takeover maneuvers.
As we said, GPS sensors do not equip all vehicles. The next figure examines how the
percentage of GPS equipped vehicles impacts the results of the estimation of the takeover
maneuvers. We hypothesize that GPS sensors informs each second on the speed with no
69
71.
measurement error andmake a random draw of the observed vehicles according to a propor-
tion. Clearly, to estimate the needed takeovers with a sufficient accuracy the number of GPS
equipped vehicles must be of the order of 30 %. It is in practice rarely the case.
Figure 4.7 – Percentage of vehicles for which the takeover is detected (with standard de-
viation) for a threshold at 50km/h depending on the proportion of GPS-equipped vehicles -
source [Rivoirard and Buisson, 2016]
Summary of the ability of various sensors to determine the minimal number of takeovers
We exemplified how to determine the number of takeovers needed for low speed automation
based on trajectory data. In the previous pages, we transferred those results to three cases
with a lower precision data collection. The decrease in precision can come from a lower spatial
density (like for loops or for ALPR) or from a lower frequency of observations. To sum up,
one can say that the fact of reducing spatially the speed measurement density has strong
negative impacts on the ability to detect variations of speed above the threshold.
On the contrary, if an on board mounted devices like GPS are used, the frequency of the
speed measurement has no significant negative impacts, provided that the frequency is of
the order of 1s or less. The limitation is then the number of observed vehicles which must
be high (as high as 30%) to guaranty a good detection precision of the number of takeover
maneuvers.
70
72.
Figure 4.8 –Summary of takeover detection capabilities of various sensors - source
[Rivoirard and Buisson, 2016]
71
73.
4.3 Amelioration ofthe LSA
We can take an interest in the establishment of a maximum threshold for speed. For
example, when the vehicle is not constrained by its leader, so it has the ability to run at a
speed above the threshold for the takeover by the driver. It is then found that it does not
go beyond. Here for example schematic diagram where the automated vehicle would follow
another vehicle
Figure 4.9 – Schematic diagram for a continuation scenario
72
74.
Thus, this typeof system would prevent followers motorists of the automated vehicle to
carry too heavy acceleration and therefore with high speeds, then having to brake a few
seconds later (as is the case of the leading vehicle) . So it would limit the accordion effect
visible when congestion on motorways and also restrict the waves of over-congestion.
Nevertheless, even if this device looks promising, one wonders how it will be received by
other users. Indeed, the following vehicle autonomous vehicle flange himself his speed to avoid
a takeover by the driver, probably try to overtake this vehicle. Similarly, the driver of the
autonomous vehicle may want to accelerate itself by seeing the inter-vehicular space between
him and his leading stretch tremendously. Thus, it is unlikely that such a system be adopted,
including the point of view of manufacturers, whose priority is the massive sale of vehicles.
However, few people are interested in purchasing a vehicle flange speed.
Finally, the low speed automation appears to be a system that would allow a transition
between manual and automatic vehicle because the driver could leave the steering when
the vehicle speed is low. Nevertheless, thanks to the study proposed above, we realize that
enabling this automation will be extremely dependent on traffic conditions and can be used
only in very large congestions where all vehicles will have a lower speed the set threshold.
4.4 Discussion
Finally, we can say that the low speed automation may be implemented only in specific
cases, particularly in the case of very heavy congestion. Indeed, it suffices that the vehicle
speed exceeds the threshold to force the driver to takeover
The different results of the previous section show that the use of low-speed automation is
actually dependent on the type of traffic observed. Indeed, in our case, the congestion was
here but the speed of this distribution curve showed us it was distributed between 0 and
60 km/h. Thus, even if the average speeds are low (less than 20km/h) for each lane, some
vehicles can reach peaks at more than 50km/h.
This phenomenon therefore creates a limitation on the implementation of the low speed
automation. In fact, the takeover by the driver of vehicles with a speed threshold is needed.
Nevertheless, as the study area is very short (500m) and as we can observe the need to takeover
several times for certain vehicles, we doubt that it is not interesting to setup automated
driving in this case.
73
75.
Conclusion
Au cours dutravail présenté dans ce rapport, nous avons mis en évidence la difficulté de
traiter des données brutes. En effet, il est nécessaire d’utiliser des filtres pour obtenir des
données intéressantes. Néanmoins, ces filtres doivent être utilisés de manière limitée car ils
risquent de gommer les résultats qui nous intéressent, à savoir les comportements extrêmes.
Les différents résultats de l’étude ont dégagé la difficulté de mise en place de l’automa-
tisation basse vitesse dans une circulation congestionnée sur autoroute. Néanmoins nous
n’avons étudié qu’une seule situation de trafic, il faudrait maintenant faire la même chose
dans d’autres cas. Nous avons également mis en avant la variabilité de conduite des au-
tomobilistes ce qui pourrait servir à la modélisation du trafic et ainsi de voir l’impact de
l’automatisation basse vitesse.
On peut aussi s’interroger sur la finalité des véhicules autonomes : seront-ils utilisés pour
optimiser au mieux le trafic en limitant parfois leur vitesse et pour atteindre l’optimum
collectif ou bien, leurs paramètres seront-ils employés pour satisfaire l’agressivité de la plupart
des automobilistes dans le but d’atteindre leur optimum individuel ?
Les véhicules autonomes seront vendus par des constructeurs, lesquels ont pour objectif de
vendre le plus de véhicules. Or, les automobilistes préfèrent optimiser leur temps de trajet.
En conséquence, on peut supposer que les véhicules autonomes seront peu enclins à améliorer
la fluidité du trafic car les constructeurs risquent d’implémenter des algorithmes permettant
d’optimiser le temps de trajet.
Pourtant, à ce jour, on peut dire que la voiture va bientôt devenir un service de mobilité
proposé à l’usager plutôt qu’un bien que chaque individu posséde. On peut donc s’attendre
à l’avènement des véhicules en libre-service ou en auto-partage. Les personnes achèteraient
donc le service de pouvoir se déplacer. Il est possible que l’Etat ou les collectivités territoriales
obligent les sociétés gérant la flotte de véhicules partagés à mettre en place des modèles de
poursuite favorisant les conditions de trafic. Il s’agirait de limiter les vitesses et accélérations
pour supprimer les effets d’accordéon (vague de "stop and go") visibles sur les autoroutes
lors de congestion notamment.
En prenant l’hypothèse que ces véhicules autonomes seraient connectés avec les autres vé-
hicules et même avec l’infrastructure, ils pourraient aussi connaître les conditions de trafic
et optimiser au mieux leur trajectoire pour l’optimum collectif. Néanmoins, on peut vérita-
blement se demander si cela sera accepté par le client du service d’auto-partage. Dans quelle
mesure allons nous laisser le choix aux individus entre l’achat d’un véhicule qui leur coûtera
très cher à l’utilisation, ou bien l’achat d’un service de véhicules partagés, gouvernés par des
algorithmes augmentant les temps de trajet dans le but de limiter la congestion du trafic ?
74
1
2
3
4
5
HOW MANY TAKEOVERARE NEEDED FOR LOW SPEED AUTOMATION6
IN A CONGESTED FREEWAY TRAFFIC7
8
9
10
11
Lucas RIVOIRARD12
Ecole Nationale des Travaux Publics de l’Etat, Vaulx en Velin, France13
IFSTTAR, LICIT, F-69675 Bron14
ENTPE, LICIT, F-69518 Vaux en Velin15
Phone: +33 6 4995552916
E-mail address: lucas@rivoirard.fr17
18
19
20
Christine Buisson *
21
Université de Lyon, F-69622, Lyon, France22
IFSTTAR, LICIT, F-69675 Bron23
ENTPE, LICIT, F-69518 Vaux en Velin24
Phone: +33 4 72 04 77 1325
Fax: +33 4 72 04 77 1226
E-mail address: christine.buisson@entpe.fr27
28
29
30
31
32
Word count: 4,600 words text + 10 tables/figures x 250 words (each) = 7,100 words33
34
35
36
Paper # 16-138737
38
Submitted for presentation and publication39
at the 95th
Annual Meeting of the Transportation Research Board40
41
42
*
corresponding author
78.
Rivoirard, Buisson 2
ABSTRACT1
Thisresearch examines the interest of automated driving at low speeds (typically below a 50 km/h2
threshold) on a congested highway at the light of the traffic conditions. Low speed automation can3
increase road safety while allowing the driver to give up the driving tasks. In Europe, where the4
Vienna convention holds, the driver is legally responsible for controlling the car. Therefore,5
European automotive manufacturers promote low speed automation as the starting step before a6
complete automation.7
The market penetration estimation of such a new technology needs a precise examination of the8
number of times a driver will need to take control of the car after a “non-driving” period. Indeed,9
this takeover maneuver is cognitively demanding and it is likely that the drivers will show some10
reluctance to do so.11
The study presented in this paper determines the number of necessary takeovers for a 500 m12
congested zone where the mean speed is of 32 km/h. The dataset consists of more than13
600 individual trajectories. We show that about half of the drivers should take over the control of14
their car in the crossing of this 500 m zone. This finding, if confirmed in other locations, will15
certainly impede the practical deployment of low speed automation. To go further, we take the16
opportunity of this particularly detailed dataset to examine the feasibility to determine the number17
of needed takeovers on less precisely measured roads. We examine sources of data such as GPS or18
double electromagnetic loops.19
20
Keywords: Low speed, automation, trajectories, data, takeover, traffic characteristics21
22
23
24
25
26
27
79.
Rivoirard, Buisson 3
INTRODUCTION1
2
Urbanfreeways constitute one of the major mobility infrastructures of the metropolitan system in every3
country. Those infrastructures very often face congestion, leading to losses of individual travel time for4
thousands of users every day. Quantified in monetary units these losses represent each year more than a5
hundred billion euros in Europe, and approximately the same amount of dollars for the USA [1]. But6
congestion is not the only negative externality due to freeway traffic. Pollutant emission and safety also7
result from the excessive travel demand on those infrastructures.8
A way to reduce those externalities is to import in the freeway system (conceived as infrastructure and9
vehicles and their interactions) some of the technological advances realized in other fields mainly10
automation, communication, positioning. Recently, the ITS strategic plan defined “two key priorities—11
realizing connected vehicle implementation and advancing automation” [2]). This plan defines a wide range12
of research directions which should be explored to reach in a mid-term horizon an effective impact on the13
negative externalities already mentioned.14
Indeed a progressive emergence of automated vehicles already started. This emergence can be observed for15
regular cars in which some of the driving tasks are now assisted automatically; automated cruise control16
being one of the most popular. Since 2012, in Nevada, USA, the test of autonomous cars on public roads is17
allowed. This is now the case in five states of USA.18
The deployment of an important fleet of automated vehicles, representing a significant amount of the total19
kilometers travelled, encounters many obstacles. One of them is to understand the behavior of a mixed20
traffic with a part of vehicles being automated and others human-driven. The question of the human21
capabilities to interact safely with an automated car is identified in [3] as an under-explored area of research.22
Other difficulties are to overcome the legal barriers to this deployment. This is particularly true for the 7323
countries which signed the “Vienna Convention on Road Signs and Signals” which states that: “Drivers24
shall at all times be able to control their vehicles” (art.8 of Chapter II of [4]). One possible way would be25
to allow first fully automation only in the low-speed range. The speed for which it would be possible would26
be below a 50 km/h threshold (about 30 miles/hour) [5] .This low speed automation (LSA) generates in27
turn other problems, the most important of them being the fact that as soon as the car speed is over this 5028
km/h limit, the driver must stop any of the tasks he/she was previously realizing (phone call, reading,29
chatting…) and take over all the driving tasks. The switch from non-driving tasks to driving task is reported30
to vary from 5 to 20 seconds, depending on the literature [6]. Congested urban freeways appear as a good31
target for the early deployment of low speed automation, due to their high level of congestion, to the absence32
of pedestrians and cyclists and of at-grade crossings.33
Taking the advantage of a trajectory data set collected on a congested French freeway, the research presented34
in this paper evaluates how many takeovers should be realized in reality by drivers if the cars were equipped35
with low speed automation. Interestingly, even if the mean speed of the observed vehicles is of 33 km/h,36
40 % of them should realize a takeover if the maximal speed of full automation is of 50 km/h.37
Considering that the type of data collection and treatment needed to build this trajectory data set is costly38
and cannot be realized in many occasions, we take the opportunity to evaluate how reliable would be an39
assessment of the number of takeovers in the same conditions with other data collection devices, namely40
loop detectors, license place identification and GPS data collection.41
80.
Rivoirard, Buisson 4
Thenext section is devoted to a brief recall of the various speed measurements that can be done for a vehicle1
moving along a road. We will thus show that depending on the measurement process, the very nature of the2
measured speed changes. This has a strong impact on the measurement sampling process and therefore on3
the determination of the periods duration of low speed automation. The trajectories dataset allows us to4
determine precisely the number of takeovers in the observed conditions. We will thus describes the5
trajectory data collection process and its various steps, from helicopter images video collection to the6
trajectory data enhancement and filtering. For those trajectories data, the results of determining the numbers7
of takeovers needed for low speed automated cars in this heavily congested traffic are presented in the8
subsequent part. Before conclusion and discussion, a last part transfers the results of the previous part should9
the various other possible speed measurements had been used.10
VARIOUS TYPES OF INDIVIDUAL SPEED DEFINITIONS11
12
Speed is basically defined as the derivative of the distance travelled d with respect to time of a moving13
object n. What is measured externally of an object is not this distance travelled, but a collection of points14
constituting the trajectory. Trajectory is indeed defined as a set of triplets; the longitudinal position: x, the15
lateral position: y, and the elevation: z. All those triplets are known for a set of observation time instants t.16
Usually the elevation is neglected.17
Therefore, the instantaneous speed s of an object n at a given instant t is defined from positions18
measurements (longitudinal, and lateral ) with the following equation:19
= + = 20
The various measurements of the lateral and longitudinal positions of the cars center of gravity observed in21
the MOCoPo project are noisy and must be filtered, as we will see later on. The base noise estimated with22
a conservative equation is equal to or lower than 2m/s. After a careful filtration [7] we observe a noise of23
0.4 m/s, sufficient to have a reliable estimation of the number of takeovers.24
Helicopter trajectory data collection, like the one used in the MOCoPo project, is rarely carried out because25
of its cost and also of the difficulty due to the image processing. Usually road traffic is observed through26
more classical measurement devices which are all illustrated in the next figure and described hereafter.27
• Local measurement devices like double electromagnetic loop detectors or Doppler radar units28
measure individual local speed, but without identification of the corresponding car. The precision29
of the double loop measured speed is reported in recent literature to be around 1% [8] and [9].30
• Road-side measurement units like automatic licence plate reading devices (ALPR) which identify31
the vehicles at some given points of the road and associate this with a passing time instant. Two32
devices of this type thus permit to determine a mean speed between the first and the second33
measurement points [10]. Note that in its principle, the Bluetooth methodology also identifies34
moving objects at two successive measurement points and permits to determine a travel time2
. We35
limited our study to the ALPR system which presents the two advantages of identifying all the36
vehicles (or at least a vast majority of them) holding a license plate (but not bicycles or pedestrians)37
and a better localisation of the measurement. The travel time is measured with a precision directly38
linked to the one of the dating of the passing instant (less than a second). The precision of the39
speed is also linked to the precision in the position of the car at the measurement instant, which40
can be some tens of meters. Therefore automatic license plate recognition devices have a precision41
2
The identification of the magnetic signature of the vehicle in two successive points (measured by magnetometers
or loop detectors) can also be used to determine this travel time between two points. We will not refer to this type of
measure hereafter because it is rarely used for the time being.
81.
Rivoirard, Buisson 5
inspeed measurement estimated to be around 1 m/s for a mean speed of 20 m/s and identification1
points spaced by a distance of 500 m.2
• GPS speed measurements of some equipped vehicles. This type of devices presents the main pitfall3
that it is not available for the complete sample of cars, but for some of them. GPS localisation4
measurements are based on the reception of satellite messages and determination, by triangulation,5
of the distance between the satellites. In case of reflection of the signal sent by one of the satellites6
(on a building for example), the positioning can become less precise (with an error of about7
10 meters in urban areas whereas it is of about 1 m in unconstructed environment). Concerning8
the speed measurement, the principle is based on Doppler effect and the precision is much more9
stable, even in dense urban environments (1 m/s in urban areas, 0.1 m/s outside cities) [11].10
11
12
13
Figure 1: the three various speed measurements of vehicles classically available. In green, the loop position14
with the individual measurements of vehicular speeds at this position. In purple, the ALPR (Automatic15
License Plate Recognition) with the measurement of four individual travel times between the positions of the16
first and second ALPR. In blue, the trajectory of a GPS-equipped vehicle, the speed of which is measured at17
equally spaced time instants.18
19
20
SOURCE OF TRAJECTORIES DATA21
22
Presentation of the study area23
The data used in this study are from the research project “MOCoPo” (Measuring and Modelling Congestion24
and Pollution). The main objective of the project is to improve the modeling of congestion and nuisances25
associated with urban highways. The data collection was performed at the RN 87 (in the southern suburbs26
of Grenoble) in September 2011. A helicopter equipped with three high-definition cameras filmed the27
highway for several hours. In addition, pollutants measurement and loop detector data were collected. The28
site of the project [12] provides maps and access to the data.29
82.
Rivoirard, Buisson 6
1
2
Figure2: Area studied on the RN 87 in the southern suburbs of Grenoble, the insertion lane is green, in red3
this is the right lane and the fast lane is in blue. The area is 500m long.4
5
The area studied in this article is a merge with an entrance on the highway. Its length is of 500 m. The6
posted speed limit is of 70 km/h. For this area, data collections periods were chosen to cover congestion of7
the morning peak.8
9
Data processing10
The images resulting from video collection must to be treated to exploit the data. We will not go into too11
much details here (the interested reader can refer to [7] where the collection and treatment of those data are12
explained in details. What it useful for the present research is that this treatment gives us good trajectories13
data, but also some vehicles identified on a sub part of the study area or the wrongly identified.14
To solve this issue, several selections have been set up to select for the current study vehicles with correct15
trajectories over the entire area. This selection then gives us a panel of 611 vehicles distributed over an hour16
of time (16 September 2011 between 7:58 – 8:58 am). Moreover, a filtering procedure was used.17
18
Traffic conditions19
LSA (low speed automation) requires to establish a speed threshold above which the driver must take20
control of the system and must be in condition to carry out its driving task. Figure 3 shows the average21
speed of the users as they cross the area according to their date of entry. Those average speeds are highly22
variable with time, which is characteristic of stop and go waves observed in congestion. Only 12% of the23
total 611 vehicles have a mean speed during their crossing of the section above the threshold of 50 km/h.24
25
26
Figure 3: Individual mean speed on the section of the 611 users selected for the 16 of September 2011 between27
7:58 and 8:58 am, according to their date of entry on the area. The red line corresponds to a smoothing, the28
grey line to the mean of all individual mean speed values and the black dotted line to the threshold speed of29
50 km/h.30
31
From the global analysis presented in Figure 3 one could consider traffic conditions correct to apply LSA32
but, as the next figure presents, the stop and go waves generate important fluctuations of the speed, even33
for an individual. The next section will quantify this in more details.34
Rivoirard, Buisson 8
DETERMININGTHE NUMBERS OF TAKEOVERS ON TRAJECTORY DATA1
2
By applying the methods to the whole data set of vehicles, we can study the implementation of LSA. For3
this we trace the number of takeovers needed by the driver depending on the threshold limit (varying from4
40 to 60 km/h). Keep in mind that the section measures only 500 m and one wishes to have no takeover at5
all.6
7
8
Figure 5: top: Number of necessary takeovers with a threshold of 40 to 60 km/h; bottom: cumulative9
frequency of the takeovers in seconds for a threshold of 50 km/h.10
11
The top part of this figure shows that for a threshold set at 50 km/h, 40% of vehicles must take over the12
control of their vehicle at least once. Thus, even with a low average speed of 33 km/h, we cannot ensure13
that the vehicle will not exceed the threshold of 50 km/h across the section. Speed variability in this situation14
of congestion is very high. Moreover this figure shows that several takeovers are required for certain15
vehicles that are not acceptable for the users. Indeed, the average travel time from the area is approximately16
one minute. The acceptability of the LSA system by the users is withdrawn if the system cannot be used for17
less than one consecutive minute. Let us remark that if the threshold is of 60 km/h, only 15% of drivers18
should take over the control of their vehicle.19
85.
Rivoirard, Buisson 9
Thebottom part of the figure presents the cumulative distribution of the duration of the takeovers for a1
threshold of 50 km/h. Half of them last more than 5 seconds, meaning that the procedure of taking over the2
control of the car will be completed during the crossing of this 500 meters section.3
All those results indicates that for the studied section, for the considered period of congested traffic, low4
speed automation is not a viable solution. It would be interesting to study larger areas with other geometric5
configurations or different traffic conditions. Nevertheless the full trajectory data are scarcely available.6
The question of the usability of LSA in other types of network or with other types of traffic condition is to7
be examined with other data than trajectories data. Therefore, the next section examines the reliability of8
more classical speed measurement sensors to determine the number of takeovers.9
10
CLASSICAL SPEED MEASUREMENTS DEVICES11
12
As we have seen in the second section, there are other types of sensors for obtaining individual vehicles13
speed information. In our application case, the calculation of the number of takeovers for low speed14
automation needs to monitor how many times the speed of a vehicle is above a given threshold.15
We degrade the full trajectory data to simulate the data obtained by different sensors. This will allow us to16
see if these sensors make it possible to obtain the same results in terms of number of takeovers as the ones17
we get with trajectory data taken as the ground truth. In this case we can subsequently use the data from18
this sensor to study larger areas and thus have a more representative sample of the different traffic and19
infrastructure conditions.20
21
Electromagnetic loops22
This sensor can calculate an instantaneous velocity at a given crossing point. In addition the data from these23
sensors are widespread and easily accessible. We investigate is the position of the loop has an impact on24
the determined number of takeovers.25
For this, we present in the next figure the distribution function of the speeds obtained by the sensor26
depending on its position in the area. This shows a high variability in speed distribution according to the27
position of the loop. Thus it is not possible to study the number of takeovers from loops detector speed data28
because this type of sensor is too sensitive to the chosen position.29
30
Figure 6: Speed distribution function of all vehicles observed by virtual loops31
86.
Rivoirard, Buisson 10
ALPR(Automatic License Plate Recognition)1
This sensor can determine passing instant of each vehicle in front of it. From this an average speed between2
two detectors can be computed. So we degrade the velocity profile with only average speeds between3
equally spaced points of the trajectories. We thus calculate the number of takeovers detected if this type of4
sensor were employed. The distance between two successive sensors is varied between 20m to 200m to see5
the sensitivity to this parameter.6
7
Figure 7: Number of takeovers detected for a threshold of 50 km/h.8
9
The percentage of detection decreases sharply with the distance between ALPR. Thus, even by placing a10
sensor for each 100 m one can only detect 10% of the needed takeovers, which is not acceptable.11
Furthermore in the real life configurations, groups of ALPR are often distant of several hundred meters12
because of the cost of the equipment. Thus, it is not possible to use these data for this application case.13
14
GPS data15
The interest of GPS data is that the sensor is placed on board the vehicle. Similarly to the previous case, we16
study the degradation of the trajectory data to mimic the GPS data. This implies to have fixed time steps of17
observation and a lower number of observed vehicles. Time step of GPS sensors embedded in vehicles is18
of the order of one second or more.19
87.
Rivoirard, Buisson 11
1
Figure8: Number of takeover detected for a threshold at 50km/h if all vehicles are equipped with GPS.2
3
We observe that the detection percentage of takeover does not degrade too quickly with the value of the4
time step. Indeed even with GPS data taken every second, we can detect 90% of takeover maneuvers.5
As we said, GPS sensors do not equip all vehicles. The next figure presents how the percentage of GPS6
equipped vehicles impacts the results of the estimation of the takeover maneuvers. We hypothesize that7
GPS sensors informs each second on the speed and make a random draw of the observed vehicles according8
to a proportion. Clearly, to estimate the needed takeovers with a sufficient accuracy the number of GPS9
equipped vehicles must be of the order of 30 %. It is in practice rarely the case.10
11
Figure 9: percentage of vehicles for which the takeover is detected (with standard deviation) for a threshold at12
50km/h depending on the proportion of GPS-equipped vehicles.13
14
88.
Rivoirard, Buisson 12
Summaryof the ability of various sensors to determine the minimal number of takeovers1
We exemplified how to determine the number of takeovers needed for low speed automation based on2
trajectory data. In the previous pages, we transferred those results to three cases with a lower precision data3
collection. The next table recapitulates those findings. The decrease in precision can come from a lower4
spatial density (like for loops or for ALPR) or from a lower frequency of observations. To sum up, one can5
say that the fact of reducing spatially the speed measurement density has strong negative impacts on the6
ability to detect variations of speed above the threshold.7
On the contrary, if on board mounted devices like GPS are used, the frequency of the speed measurement8
has no significant negative impacts, provided that the frequency is of the order of 1s or less. The limitation9
is then the number of observed vehicles which must be high (as high as 30%) to guaranty a good detection10
precision of the number of takeover maneuvers.11
Sensors Type of data
Fractions of the needed takeovers
detected by the sensors
Useful
Video Full trajectories 100% ✓
Electromagnetic loop
Instantaneous velocity
of all vehicles at a
single point
Detection impossible because too
dependent on the position of the loops ✗
Automatic License
Plate Recognition
Travel time -
route speed
40 % with a sensor each 40 m
< 10 % with a sensor each 100 m ✗
GPS data
Position at given
instants for all vehicles
90% with 1s data frequency ✓
GPS data
Position at given
instants for 50 % of
the vehicles
Between 80% and 100 % of real
takeovers with 1s data frequency ✓
GPS data
Position at given
instants for 20 % of
the vehicles
Between 70% and 110 % of real
takeovers with 1s data frequency ✗
Table 1: Summary of takeover detection capabilities of various sensors12
13
89.
Rivoirard, Buisson 13
1
CONCLUSION2
3
Thecore research question was to test the feasibility of equipping vehicles with an automated low speed4
system which discharges the driver of the all the driving tasks in a congested environment. Indeed, for all5
the countries where the Vienna convention still holds (among them the European ones), the requirement is6
that the driver must “at all times be able to control [his/her] vehicle”. Therefore, low speed automation7
seems to be a solution that eases the life of drivers too often stuck in congestion without necessitating long8
legal debates. This is thus seen as a possible appealing first step towards higher scale automation.9
We used as an input a detailed data set of trajectories collected on a congested urban freeway near Grenoble,10
France. The data were obtained through helicopter video collection. For this first study, we focused on 61111
individual trajectories which were selected to cover the entire zone of 500 m with a good identification of12
the vehicles. All those trajectories where gathered in congested situation, with a mean speed of 32 km/h,13
well below the activation/deactivation threshold of 50 km/h.14
15
The main findings of the study presented here are twofold:16
• With this very detailed dataset, we determine that more than 40 % of the drivers must take over the17
computer responsible of low speed automated driving at least once during their journey in this18
500 m long section. This is due to the stop and go waves which congested traffic of regular vehicles19
will encounter. This certainly will constitute one of the main brakes of the deployment of such20
automated cars in the next future.21
• The second one is to propose a deployable methodology to assess the LSA feasibility on less22
precisely scrutinized networks. We concluded that the equipment of a significant proportion of23
vehicles with GPS will provide reliable results. The two other possible methods (based on dual24
electromagnetic loops or on Automatic License Plate Recognition) do not provide stable results25
when the sensors spatial density decreases significantly.26
27
To complete those findings, we will now collect GPS data on other locations. We will first look at a longer28
stretch of congested freeway in various traffic characteristics (morning and evening peak, commuters and29
non-regular drivers…). We can also examine the possibility of using this methodology on an urban30
environment, even though the urban crossings are seen by the automotive manufacturers as an unsafe31
environment for the time being. It is likely that the increase of the detection capabilities of the on board32
technology will permit this type of deployment sooner or later.33
On a more global view, this paper can be taken as contribution towards an assessment of the possible usage34
of new technologies in the field of transportation based on real life data. Most of the previous studies35
concerning this deployment are so far based on simulation, on simulators or theoretical studies.36
37
AKNOWLEDGMENTS38
The authors want to thank the funding of the MOCoPo project by the PREDIT program of the French39
Ministry of Ecology and sustainable development. Many thanks are also due to B. Favre and S. Glaser for40
fruitful discussions.41
42
90.
Rivoirard, Buisson 14
1
REFERENCES2
3
[1]R. Claudio, P. Markos et P. Ioannis, «Traffic flow optimisation in presence of vehicle automation and
communication systems – Part I: Afirst-order multi-lane model for motorway traffic,» Transportation
Research Part C: Emerging Technologie, pp. 241-259, 2015.
[2] «ITS Strategic plan 2015-2019,» U.S. Department of Transportation, 2014.
[3] R. Hoogendoorn, B. van Arem et S. Hoogendoorn, «automated driving, traffic flow efficiency, and
human factors literature review,» Transportation Research Record: Journal of the Transportation
Research Board, vol. 2422, pp. 113-120, 2014.
[4] Geneva Convention on Road Traffic, 1949.
[5] S. Glaser, M. Cour, L. Nouveliere, A. Lambert, F. Nashashibi, J.-C. Popieul et B. Mourllion, «Low
Speed Automation, a French Initiative, Procedia,» Social and Behavioral Sciences, pp. 1764-1774,
2012.
[6] M. Natasha, A. Hamish, F. Jamson, C. Lai, D. Michael et O. Carsten, «Transition to manual: Driver
behaviour when resuming control from a highly automated vehicle,» vol. 27, November 2014.
[7] C. Buisson, D. Villegas et L. Rivoirard, «Using radial coordinates to effectively filter trajectory data
obtained from video image processing,» chez Transportation Research Board, Washington, 2016.
[8] R. Hesham et Z. Wang, «Estimating Traffic Stream Space Estimating Traffic Stream Space Estimating
Traffic Stream Space,» Transportation Research Record: Journal of the Transportation Research
Board, vol. 1925, pp. 38-47, 2005.
[9] F. Soriguera et F. Robusté, «Estimation of traffic stream space mean speed from time aggregations,»
Transportation Research Part C, vol. 19, p. 115–129, 2011 19 (2011).
[10] C. Buisson, «Simple Traffic Model for a Simple Problem Sizing Travel Time Measurement Devices,»
Transportation Research Record: Journal of the Transportation Research Board, vol. 1965, pp. 210-
218, 2006.
[11] O. Le Marchand, P. Bonnifait, J. Ibañez-Guzmán, D. Bétaille et F. Peyret, «Characterization of GPS
multipath for passenger vehicles across urban,» ATTI dell'Istituto Italiano di Navigazione, pp. 77-88,
2009.
[12] MOCoPo. collaboration, Available: mocopo.ifsttar.fr. [Acessed 2015].
4
5
91.
Using polar coordinatesto filter trajectories data1
without adding extra physical constrains2
3
4
5
Christine Buisson 1
6
Université de Lyon, F-69622, Lyon, France7
IFSTTAR, LICIT, F-69675 Bron8
ENTPE, LICIT, F-69518 Vaux en Velin9
Phone: +33 4 72 04 77 1310
Fax: +33 4 72 04 77 1211
E-mail address: christine.buisson@entpe.fr12
13
Daniel Villegas14
Université de Lyon, F-69622, Lyon, France15
IFSTTAR, LICIT, F-69675 Bron16
ENTPE, LICIT, F-69518 Vaux en Velin17
Phone: +33 4 72 04 77 0318
Fax: +33 4 72 04 77 1219
E-mail address: daniel.villegas@entpe.fr20
21
Lucas Rivoirard22
Ecole Nationale des Travaux Publics de l’Etat, Vaulx en Velin, France23
IFSTTAR, LICIT, F-69675 Bron24
ENTPE, LICIT, F-69518 Vaux en Velin25
Phone: +33 6 4995552926
E-mail address: lucas@rivoirard.fr27
28
29
30
Word count: 4900 words text + 10 tables/figures x 250 words (each) = 7400 words31
32
33
Paper #16-341234
35
Submitted for presentation and publication36
at the 95th
Annual Meeting of the Transportation Research Board37
38
39
40
41
1
corresponding author
92.
Buisson, Villegas, Rivoirard2
1
ABSTRACT2
3
Filtering methods of the position or the speed measurements of the NGSim trajectories dataset are4
numerous, but specific to the noise resulting of NGSim data collection and processing. The5
MOCoPo collaboration collected more than 10 hours of data with a high resolution camera6
mounted underneath a helicopter flying almost immobile above a freeway in Grenoble. Along with7
the post-treatment method, this generates a noise in the position measurement of the center of8
gravity of the image associated with the vehicle.9
We present a method classically based on polynomial fitting but where the originality states in10
using the polar coordinates instead of the Cartesian ones as is made usually. Indeed the radial11
coordinate capture most of the physics of the act of driving a car: selecting a speed, whereas the12
polar angle is much more related to the geometry of the road. The method fits the space travelled13
whose derivative is the real instantaneous speed.14
The method can provide either piece-wise constant accelerations or piece-wise linear accelerations.15
In both cases the root mean square error is of less than 0.4 m. The main advantage of this method16
is that it provides values of acceleration fully compatible with the physical limits found in the17
literature, without adding extra constraint. Concerning the values of the jerk (if acceleration is18
linear), they change within a time window of 1 seconds in less than 1 % of the cases.19
20
Keywords: traffic flow, trajectories, filtering, polar coordinates, space travelled.21
22
93.
Buisson, Villegas, Rivoirard3
INTRODUCTION1
2
Trajectories datasets are valuable in many aspects of traffic flow studies. Some of this aspects are, but are3
not limited to, that they permit a better understanding of the drivers’ behavior and of its variability and to4
calibrate in a very detailed way the car following and lane changing models.5
6
Collecting trajectories data can be made either internally with equipped vehicles or externally with sensors7
placed on or near the road. Equipped vehicles are necessarily selected ones and this data collection means8
cannot permit us to collect data without informing the driver. This certainly has impacts on his/her behavior.9
On the other hand, using external sensors leads to bigger errors, the sensor measuring more indirectly the10
ground truth. One way of collecting externally trajectories of vehicles circulating on a road is to use cameras.11
12
Drawing a history of trajectories data collection with cameras is out of the scope of this paper. Since the13
beginning of this century two main groups of datasets were constructed:14
• The data sets series resulting of experiments conducted in the Netherlands [1] [2] by the TU Delft15
team. The camera is placed underneath a helicopter.16
• The NGSim project [3]. It was conducted with the funding and supervision of FHWA and active17
work of Cambridge Systematics. Seven cameras were placed above a tall building roof. As the data18
sets are made publicly available on the web, this data trajectory data set is probably the most popular19
one and numerous publications have been made with those data. In total, ten video data collection20
experiments were conducted during the course of this project.21
22
The noise correction of the data collected in the Netherlands is made with a smooth moving average [1]23
and seems not to generate many debate. The NGSim dataset noise filtering was a subject of many papers.24
Thiemann and co-authors [4] were the firsts to put into evidence the imperative need of filtering those data,25
especially when looking at speed the variable. All the filtering methods applied to NGSim date are listed in26
the recent paper [5] or in references quoted herein.27
28
Our believing is that a data noise filtering method is not the best one for all datasets. Each data collection29
process generates its typical noise and the filtering method must be suited for the precise dataset one wants30
to filter. We recently conducted a large trajectories collection project, where we collected more than 1031
hours of video data, mainly in congested traffic conditions. The freeway is a two lanes road which offers a32
rather simple traffic behavior, especially concerning lane changing. Three locations where chosen: one33
merge, one merge/diverge section with a low exchange traffic and a weaving section with numerous34
exchanges between lanes.35
36
MOCoPo data collection method and post treatment generates octagons of pixels corresponding to a vehicle37
identified in one image. The trajectory is thus built by identification of this octagon in the successive images.38
The position of the center of gravity of the octagon is defined by to variables: the lateral and the longitudinal39
position. As far as we know, it is not possible to filter simultaneously two variables with regard to another40
one. In our case it is highly desirable to filter x and y together with respect of t. Indeed the noise of the two41
values is the result of a global process.42
43
Therefore, the core principle of our new method is to propose a filter keeping together the information of44
the two measurements of the position of the center of gravity of the octagon: its longitudinal and lateral45
positions. To this end, we transform those Cartesian coordinates (x,y) into polar coordinates. Indeed one of46
polar coordinates, the radial distance, is in some sense similar to the space travelled, which we need to47
differentiate to obtain the vehicle speed. Moreover, the second radial coordinate, the polar angle, is linked48
to the geometric characteristics of the road more than to the individual behavior.49
50
94.
Buisson, Villegas, Rivoirard4
1
The next part illustrates the main differences in the data collection process of MOCoPo and of NGSim and2
links those differences to the noise specificities of the MOCoPo trajectories. The central part of the paper3
describes the new filtering method. The results are thus presented with an application on a data set of 4754
trajectories encompassing some lane changes. A conclusion summarizes the paper and describes further5
researches.6
7
8
COLLECTION AND RECONSTRUCTION PROCESSES OF THE MOCOPO DATA –9
IMPLICATIONS REGARDING NOISE10
11
The MOCoPo project aim better measuring and modeling of congestion and pollution. MOCoPo stands for12
Measuring and mOdelling COngestion and POllution. Various tasks permitted to collect near and on an13
urban freeway near Grenoble (France) loop detector data, trajectories data and pollution data. Those data14
are made progressively publicly available [6]. The trajectories dataset results of more than 10 hours of video15
images collected from a helicopter, in an almost fixed position. The data were collected mainly during16
morning and evening peak periods in September 2011. Three locations were observed, we will concentrate17
in this paper on the simplest one (called zone 1 on the MOCoPo web site), where only one merge is present.18
19
Various measurements errors are disturbing the positions measurements. First, each color image represents20
a zone of about 500 m length with a resolution of 2500 × 2000 pixels Therefore, each pixel correspond to21
a square of about 25 × 25 cm2
. Thus a post treatment is realized in three steps, which also produces a noise.22
Those three steps are largely inspired by the original code written by TU Delft [2] and improved by the23
MOCoPo collaboration [6].24
• A first pre-treatment corresponds to the correction of optical aberrations and stabilizing the images.25
Indeed during its flight, the helicopter is not perfectly stable, we must stabilize the collected images.26
We must also correct the curvature of the image due to the fact that the camera angle is of 60°.this27
is done thanks to an image taken as a reference. This process implies to compute mean values of28
each pixel color with the surrounding ones.29
• A second step is to identify moving objects of each one image relatively to a reference image and30
thus identify each vehicle. This consists in grouping pixels together to form an octagon. Three31
different errors can occur during this step:32
o The pixels are selected on the difference between them and the background image. The33
color values of the pixels of the background image are defined as the mean value of a time34
window surrounding the time of the current image. Even with carful setting of this35
background building, the method is not completely robust to image evolution like shadows36
of trees, clouds/sun exposition… Moreover, when the traffic is really slowly moving due37
to severe congestion, immobile vehicles are taken as background and are no more identified.38
o The pixels corresponding to the shadow of the vehicle are moving but do not correspond39
to the vehicle. The differentiation between shadow and vehicle, if wrongly realized, can40
generate problems in the size of the octagon associated to the vehicle.41
o The grouping of the pixels corresponding to a vehicle can result in associating more than42
one vehicle to an octagon.43
• The third step consists in associating an octagons found on successive images to a vehicle44
trajectories. In the current version, this is done without any physical constraints. For example an45
octagon is not supposed to move forward from one image to the next. Two types of errors results46
of this step:47
o The trajectories may be incomplete if the identification process did not localize the octagon48
in a group of successive images.49
o They can also have erratic evolutions if more than one vehicles are associated in some50
groups of images.51
95.
Buisson, Villegas, Rivoirard5
1
Some of the specificities of the MOCoPo data and treatment processes are completely different from what2
was encountered into NGSim data. The next table recapitulates the data collection processes of the two3
experiments and their impacts on measurement errors.4
5
6
It is worth noticing that using a single camera in MOCoPo has one drawback: the relatively large size of7
the pixels, but one main advantage, the cameras images are not to be associated in a global one. Indeed this8
association of multiples images implies an alignment of the positions of some marking of the roads as it9
was apparently made in NGSim. This permits us to hope a better measurement of the lateral position in the10
case of MOCoPo data. Regarding the longitudinal measurement, it is clear that the distortion correction has11
higher effects on the two extreme parts of the road.12
13
The main feature of the MOCoPo trajectories is that even if the noise is not too high when regarding at the14
evolution of the octagon center of gravity successive positions of the next figure, some sudden changes in15
its size occur if the pixels are associated for a small group of images to a another vehicle passing too close16
to the subject vehicle. This change in size leads to a change of the center of gravity position. This is the17
reason why we fix in the next section an acceptance percentage in the filtering method to cope with this18
types of errors.19
20
21
22
23
Figure 1: representation of the position of the center of gravity of one vehicle identified in 6 successive images24
along with the corresponding octagons.25
26
27
96.
Buisson, Villegas, Rivoirard6
1
NGSim MOCoPo
Position of the
cameras
A tall building with
7 fixed cameras
covering the 500
meters-long section
(case of US101 and
I80)
► Problem with
alignment of the
lateral positions
measurements
between images
A helicopter with a
single HD camera
(2500 pixel in
longitudinal
direction): unique
but mobile camera
► Barrel effect: distortion
of the image, esp. on the
borders of the image
► Stabilization process
which implies an averaging
of pixels
Time steps Frequency of 10 Hz exactly
Variable time steps
with a varying
frequency between
less than 1 (missing
images) to 25 Hz
►Filtering process must
interpolate missing
variables in a consistent
manner.
Spatial resol-
ution
No precise
knowledge of the
position
measurement
precision.
► Important errors
when computing
derivative of the
raw position
measurements:
speed and
acceleration
Center of gravity is
the mean 2D
position of a group
of pixels identified
in the image.
► Pixel size is of about
0.25 m.
► Two dimentionnal
scatter of positions
measurements of the center
of gravity (esp. for small
objects or in the lateral
axis)
Reconstruction
process
Some physical
constrains have
been apparently
putted into the
algorithm
► All points of a
given vehicle are
placed ahead or at
the same position
of the preceding
one (no negative
speeds)
No physical
constraints are
placed
► Speed cannot be used
without filtering (raw data
positions can lead to
negative speeds)
Identification
of vehicles
No publicly
available code
permits to
determine precisely
the process
► They are
probably some
missing vehicles
(no literature found
on how many)
Identification of the
moving pixels
compared to a
background image
► Errors when background
changes (shadow/
illumination effect)
►Errors when pixel
evolution is slow
(corresponding to vehicles
not or slowly moving)
► Vehicles are not always
identified
Pixels grouping to
form an object
► Vehicles can be fused
together in some parts of
their trajectories
► Interruption of vehicle
trajectory or sudden
increase in lateral size of
the group of pixels.
Following a group of
pixels from one
image to the next
one
► Interruption of
trajectories if gantries are
places above the road
2
Table 1: comparison of the NGSim and MOCoPo data collection processes and the implications of this3
regarding the noise specificities of the two datasets.4
5
97.
Buisson, Villegas, Rivoirard7
1
NEW METHOD TO FILTER SIMULATENOUSLY THE TWO COMPONENTS OF THE2
POSITIONS MEASUREMENT3
4
We obtain at the end of the reconstruction process for each identified vehicle at each time instant the5
longitudinal and lateral position of the center of gravity of the octagon associated to the vehicle. This center6
of gravity is measured with respect to a reference taken on the top left of the image. Data are therefore7
obtained as a set: , , , where n is the vehicle index. For the sake of simplicity of the notation, we8
will hereafter refer to: , , . In this triplet, the main errors are in x and y, the dating of each photo being9
realized with a precision bigger than 1 ms. Moreover, the determination of x and y is made simultaneously10
and the errors are combined.11
12
To the best of our knowledge, there is not well established methodology to filter simultaneously two13
variables, x and y, among the third one, time t. We make a variable substitution, replacing , , by the14
polar coordinates in the triplets: , , , where r is radial coordinate and θ is the angular coordinate, as15
illustrated by the next figure. The idea behind this variables substitution is twofold:16
• First, the physics of the phenomena we want to observe (the progression of a vehicle on a road) is17
mostly included into the radial coordinate, r, whereas the angular coordinate, θ, is mostly linked to18
the geometry of the road (with a special case when the driver is executing a lane change). The19
variable r is the one on which the driver acts. In particular, when modifying his/her speed, the driver20
does not act with different intentions regarding longitudinal and lateral positions.21
• Second, what we want at the end of the process is also a correct measure of the speed. Speed is by22
definition the first derivative of the distance travelled with respect to time. The distance travelled23
is much more strongly linked to r than to θ (as we will see later on).24
25
26
Figure 2: transformation of Cartesian coordinates into polar ones.27
28
The Figure 2 illustrates this transformation from Cartesian towards polar coordinates. The flow chart of the29
complete algorithm corresponding to this new method is presented on Figure 3. We will now describe the30
various transformations made in each of the rectangular boxes of this figure.31
98.
Buisson, Villegas, Rivoirard8
1
Figure 3: flowchart of the algorithm proposed to obtain the filtered , values after a transformation of the2
measured , values into polar coordinates and an integration to obtain the space travelled. Rectangular3
boxes are refered to in the text according to their numbers.4
5
Box1: The first step of this variables substitution is to determine the origin of the polar coordinates. This is6
made by linearizing the first part of the trajectory to obtain its slope. The angle of this line is the first value7
of , the angular coordinate. The origin of the radial coordinate is simply the first point of the trajectory.8
Doing this linearization in the first part of the trajectory permits to limit the error in estimations.9
10
Box 2: Filtering the triplets , , can be made separately:11
• We filter r with respect to time t;12
• We filter θ with respect to time t.13
The filtering method is based on previous work [7] and consists in adjusting a set of polynomial equations14
between times instants freely fixed by the optimization method. Those instants are known in the spline15
optimization framework as the “knots”. The time instants are determined separately to the better fit for the16
two variables r and θ.17
An important modification was done in this filtering process in comparison with [7]: we take into account18
the fact that in MOCoPo raw data, contrary to what is apparently done for NGSim data, no filter at all is19
initially performed. Some points are particularly noisy (due to the group of pixels construction step – see20
page 4) whereas the error margin is usually reduced. The optimization algorithm of the polynomial fitting21
therefore consider a margin that permit to fix the knots (as in all classical spline methods) but there is an22
acceptance of a given percentage of abnormal points. This permits to adapt this filtering methodology to23
the MOCoPo data where the noise can be much higher for some points than for others. The values are a24
margin of 70 cm for r and an acceptance proportion of 5 %. Regarding θ, the acceptance is if 3 %, with a25
margin in the angle of 0.03°.26
27
Worth noticing is the fact that the filtering of this two polar coordinates is made at the second order. We28
note ̂ and the polar coordinates resulting of this double filtering process. The objective of this filtering29
is to reduce significantly the systematic bias of the distance travelled which, as stated in [8], is increasing30
cumulatively. Computing s over the fitted polar coordinates permits to reduce the errors one would make if31
taking raw data.32
33
34
99.
Buisson, Villegas, Rivoirard9
Box 3: We have the general formula linking polar coordinates to distance travelled:1
= + × .
!
2
So, the computation of ̂, the distance travelled, from fitted values ̂ and consists in integrating the3
previously estimated polynomial formulas (fitted equations of ̂ and . There is no computational4
difficulties, but the result is a formula containing not only exponents of the time, but also square root of5
time.6
7
Box 4: What we want is a polynomial expression of the distance travelled, in order to have smooth forms8
when we calculate speed and acceleration by derivation. Therefore, we realize an estimation of a new value9
of s, ̃, fittng ̂ with respect to time by a new set of polynoms. Again, this fitting is made by optimizing a10
set of polynomials between knots resulting of the optimization process, with this time a margin of 0.25 cm11
and an acceptance percentage of 5%. This fitting can be made by a set of polynomials of order 212
(acceleration is constant between knots) or of order 3 (acceleration is piece-wise linear). We analyze in the13
next part the difference between those two configurations of our algorithm. The result of this filtering work14
is the fitted variable: ̃.15
16
Box 5: Thus we have to transform the value of this ̃ to polar coordinates. To obtain ̃ we start from the17
following formula which is the derivation of the equation above:18
= + ,19
Therefore, to obtain ̃, we solve numerically the differential equation:20
$
%&̃
%
' = $
%(̃
%
' − ̃ $
%*+
%
' .21
22
Box 6: We need a last calculation: the transformation from ̃ and , to - and -, the filtered values of23
longitudinal and lateral positions. Here we make the approximation that , ≅ , which means that instead24
of using , (which would be optained from the polynomial expression of ̃ , we use resulting of the initial25
polynomial fit made in box 2 and associated with the non-polynomial expression of ̂. Remember that one26
of the advantage of the polar coordinates is that the derivative of with respect to time t is small. Therefore27
the error made with this approximation has a small impact.28
29
After this last step one has access to the filtered values of - and -, of the speed, of the acceleration and of30
the jerk. The next part presents the analysis of this results.31
32
RESULTS33
34
Composition of the dataset35
The dataset used in this part is composed of 475 vehicles selected for their long trajectories covering the36
entire section of the zone 1. Those vehicles are distributed over an hour of time and where collected37
September 16 2011 between 7:58-8:58 am.38
From the sample used in a companion paper [7] we rejected more than one hundred vehicles which present39
too high variations of speed. Indeed usually those extreme variations result of wrong grouping of pixels40
which generates important fluctuation of the gravity center speed between two successive images. We41
proceed to two different filtering of s, one with an order 2 of the polynomials of de distance travelled with42
respect to the time (meaning that the jerk is always null except in some points where the acceleration43
changes its constant value) and to another one with an order 3.44
The result of this treatment gives us errors such as vehicle identified in only a small sub-part of the study45
area or the vehicle duplication problem.46
47
100.
Buisson, Villegas, Rivoirard10
Some individual results1
We selected two vehicles and the order 3 of the fitting polynomials of s for presentation in the two next2
figures. Obviously the dispersion of raw data is more important for speed than for positions, and even more3
for acceleration and jerk. The first vehicle one has some important changes in speed, the second one changes4
twice of lane. One can see for this last vehicles that the second lane change is associated with an important5
change in jerk, occurring in a period where on the contrary, the x coordinate does not significantly change6
with respect to time.7
8
9
Figure 4: Profile vehicle #18. (a) profile (x,t); (b) profile (y,t); (c) profile (x,y); (d) speed in m/s; (e) acceleration10
in m/s²; (f) jerk in m/s3
.11
12
101.
Buisson, Villegas, Rivoirard11
1
Figure 5: Profile of vehicle #3575. (a) profile (x,t); (b) profile (y,t); (c) profile (x,y); (d) speed in m/s; (e)2
acceleration in m/s²; (f) jerk in m/s3
. Note that this vehicle changes lane twice: at time 647s and at time 640 s3
approximatively.4
5
It is interesting to compare the distance travelled computed from the raw data x and y and the one obtained6
in our method to see if the systematic bias underlined by [8] is corrected by our method. We have done this7
in the next figure for the vehicle #18, for which the systematic bias is particularly important because of the8
very low speed during the period between 40 and 50 second. One can see, that the distance travelled9
computed on raw data increase even in this period, whereas the distance travelled resulting of our method10
is much more constant.11
12
13
Figure 6: example of the difference between travelled distance computed on raw data (solid blue line) and the14
filtered travelled distance (dashed grey line).15
102.
Buisson, Villegas, Rivoirard12
1
Global results about the noise of the lateral and longitudinal positions measurements2
Next, we analyze the mean values of the root mean squared error of the position by computing the Euclidian3
distance between the experimental point and the fitted point for each measurement time. The next figure4
presents the distribution of those values for the 475 vehicles of the sample. Only 2 vehicles have a RMSE5
bigger than 2 meters. 20 have a distance bigger than 1 meter.6
7
Moreover, the two distributions reveals that the difference of the two possible filtering methods (one with8
a order 2 polynomials and one with order 3) are really similar, the mean of the RMSE being: 0.3727 m for9
the order 2 and 0.3750 m for the order 3. This means that adding an order to the fitting is not modifying10
significantly the results. Therefore both methods are suitable for applications and the user can chose the11
order of the polynomials that best suits with his application case.12
13
14
Figure 7: RMSE in the plan (x,y) between original and smoothing data. The mean values are: 0.3727 m for15
order 2 fit and 0.3750 for an order 3 fit.16
17
Global results about assessments criteria found in literature18
In the above referenced literature, one can find many papers where physical limits to the behavior of the19
couples vehicle/driver are listed. There seems to be consensus on the following points:20
• Acceleration cannot present values higher than 2.5 m/s2
or lower than -3 m/s2
.21
• The jerk cannot change too often and especially the sign must very rarely change within a one22
second range.23
The next figure presents the distribution of the acceleration in the case of third order filtering. The preceding24
criteria are fully respected. This is less the case when one look at the jerk, especially its change of sign25
occurs for 0.34 % of the sample in less than second. Remember that the filtering offers also good results26
for the order 2. Those two figures enforce the confidence in our method since they show that even if the27
physical criteria are not constraints of the methods, they are respected in addition.28
103.
Buisson, Villegas, Rivoirard13
1
Figure 8: Distribution of instantaneous acceleration (all values observed for the 475 vehicles sample).2
3
Figure 9: Evolution dynamics of jerks (all values observed for the 475 vehicles sample). Top: distribution of4
time between each change of jerk value. The mean is 3.88 s and only 0.21% of the dataset observation is less5
than 1s. Bottom: distribution of time between each change of sign of jerk value. The mean is 2.75s and only6
0.34% of the dataset observation is less than 1s.7
104.
Buisson, Villegas, Rivoirard14
1
CONCLUSION2
3
This paper presented a filtering method devoted to filter the noisy position measurements from helicopter4
trajectories data collection and video images processing. The proposed method takes into account the5
physics of the propagation of vehicle on a given road and is particularly suited for the MOCoPo trajectories.6
7
Indeed the driver determines the speed of his/her car regarding the radial coordinate whereas the angular8
coordinate is the consequence of the geometry of the road. We base the filtering process on the radial9
coordinate which is the key variable to represent the physical process of travelling along a road. Therefore10
the method has the following advantages:11
• The systematic bias of the space travelled computed from raw data vanishes when one uses the12
filtered data;13
• The space travelled computation gives a real speed of the driver and not (as sometimes seen in the14
literature) the longitudinal speed;15
• The accelerations and jerks obey the physical rules classically found in literature, without any16
external constraint.17
Further researches will permit to test the methods on trajectories resulting from other zones of MOCoPo18
and other traffic conditions. We have also to examine the robustness of the method in case of a bad19
functioning of the pixels grouping and / or the trajectory reconstruction.20
21
The final aim is to propose the community a dataset fully documented in the following aspects:22
• Initial data collection method with details of traffic and meteorological conditions;23
• A complete description of the post-treatment procedures along with a commented code;24
• Raw data resulting from this initial treatment;25
• Data resulting from the filtering presented in this paper;26
• Complete code of this filtering method;27
• Any additional computer code or results that the MOCoPo users would like to share.28
This should contribute to progressively establish benchmarking methods for assessing lane changing and29
car following models.30
31
32
AKNOWLEDGMENTS33
The authors want to thank the funding of the MOCoPo project by the PREDIT program of the French34
Ministry of Ecology and sustainable development.35
36
REFERENCES37
38
[1] S. Ossen and S. Hoogendoorn, "Driver Heterogeneity in Car Following and Its Impact on Modeling
Traffic Dynamics," Transportation Research Record: Journal of the Transportation Research Board,
pp. 95-103, 2007.
[2] P. Knoppers, H. van Lint and S. P. Hoogendoorn, "Automatic stabilization of aerial traffic images,," in
91st Annual Meeting of the Transportation Research Board, Washington, 2012.
[3] NGSim, "http://ngsim-community.org/," [Online]. [Accessed 2015].
[4] C. Thiemann, M. Treiber and A. Kesting, "Estimating Acceleration and Lane-Changing Dynamics
from Next Generation Simulation Trajectory Data," Transportation Research Record: Journal of the
Transportation Research Board, pp. 90-101, 2008.
[5] M. Montanino and V. Punzo, "Trajectory data reconstruction and simulation-based validation against
macroscopic traffic patterns," Transportation Research Part B, pp. 82-106, 2015.
[6] m. collab, "mocopo," [Online]. Available: mocopo.ifsttar.fr. [Accessed juillet 2015].
105.
Buisson, Villegas, Rivoirard15
[7] L. Rivoirard and C. Buisson, "How many takeovers are neede for low speed automation in a freeway
congested traffic," in transportation research Board, 2016.
[8] P. Vincenzo, M. T. Borzacchiello and C. Biagio, "On the assessment of vehicle trajectory data accuracy
and application to the Next Generation SIMulation (NGSIM) program data," Transportation Research
Part C: Emerging Technologies, pp. 1243-1262, 2011.
1
2
106.
Glossaire
ABV : Automatisationbasse vitesse, automatisation totale du véhicule lorsque la vitesse
de celui-ci est plus faible qu’un seuil
IDM : Intelligent Driver Model, modèle de poursuite à 5 paramètres (vitesse désirée, dis-
tance minimum, temps inter-véhiculaires désiré, accélération et décélération maximale).
LICIT : Laboratoire d’Ingénierie Circulation Transports
MOCoPo : Projet Mesure et mOdélisation de la COngestion et de la POllution (voir
présentation page 33)
TIV : Temps inter-véhiculaires : écart temporel entre deux véhicules.
V2V : Communication Véhicule To Véhicule, ensemble des moyens de communication entre
plusieurs véhicules
V2I : Communication Véhicule To infrastructure, ensemble des moyens de communication
permettant d’envoyer des informations entre un véhicule et l’infrastructure
105
107.
Bibliographie
[Rap, 2011] (2011).Rapport d’avancement du projet MoCoPo.
[Bar-Gera and Shinar, 2005] Bar-Gera, H. and Shinar, D. (2005). The tendency of drivers to
pass other vehicles. Transportation Research Part F : Traffic Psychology and Behaviour,
8(6) :429–439.
[Buisson and Lesort, 2010] Buisson, C. and Lesort, J.-B. (2010). Comprendre le trafic rou-
tier : Méhodes et calculs. Centre d’études sur les reseaux, les transport, l’urbanisme et les
constructions publiques.
[Buisson et al., 2016] Buisson, C., Villegas, D., and Rivoirard, L. (2016). Using polar coor-
dinates to filter trajectories data without adding extra physical constrains. Transportation
Research Board.
[Chiabaut et al., 2010] Chiabaut, N., Leclercq, L., and Buisson, C. (2010). From heteroge-
neous drivers to macroscopic patterns in congestion. Transportation Research Part B :
Methodological, 44(2) :299–308.
[Demmel et al., 2012] Demmel, S., Gruyer, D., and Rakotonirainy, A. (2012). Comparing
Cooperative and Non-Cooperative Crash Risk-Assessment.
[Diakaki et al., 2015] Diakaki, C., Papageorgiou, M., Papamichail, I., and Nikolos, I. (2015).
Overview and analysis of Vehicle Automation and Communication Systems from a motor-
way traffic management perspective. Transportation Research Part A : Policy and Practice,
75 :147–165.
[Duret and Chiabaut, 2008] Duret, A. and Chiabaut, N. (2008). Estimating Individual
Speed–Spacing Relationship and Assessing Ability of Newell’s Car-Following Model to
Reproduce Trajectories. Journal of the Transportation Research Board,, No. 2088 :pp.
188–197.
[Farah et al., 2012] Farah, H., Koutsopoulos, H. N., Saifuzzaman, M., Kölbl, R., Fuchs, S.,
and Bankosegger, D. (2012). Evaluation of the effect of cooperative infrastructure-to-
vehicle systems on driver behavior. Transportation Research Part C : Emerging Technolo-
gies, 21(1) :42–56.
[Garcia, 2010] Garcia, D. (2010). Robust smoothing of gridded data in one and higher di-
mensions with missing values. Computational statistics & data analysis, 54(4) :1167–1178.
106
108.
[Glaser et al.,2012] Glaser, S., Cour, M., Nouveliere, L., Lambert, A., Nashashibi, F., Po-
pieul, J.-C., and Mourllion, B. (2012). Low Speed Automation, a French Initiative. In
TRA 2012 - Transport Research Arena Conference, Athènes, Greece.
[Hoogendoorn et al., 2014] Hoogendoorn, R., van Arem, B., and Hoogendoorn, S. (2014).
Automated driving, traffic flow efficiency, and human factors : Literature review. Trans-
portation Research Record : Journal of the Transportation Research Board, (2422) :113–120.
[Kesting et al., 2008a] Kesting, A., Treiber, M., Schönhof, M., and Helbing, D. (2008a).
Adaptive cruise control design for active congestion avoidance. Transportation Research
Part C : Emerging Technologies, 16(6) :668–683.
[Kesting et al., 2008b] Kesting, C. T., Treiber, M., and Arne (2008b). Estimating Accele-
ration and Lane-Changing Dynamics from Next Generation Simulation Trajectory Data.
Transportation Research Record : Journal of the Transportation Research Board, 2088 :90–
101.
[Kondyli et al., 2012] Kondyli, A., Soria, I., Duret, A., and Elefteriadou, L. (2012). Sen-
sitivity analysis of CORSIM with respect to the process of freeway flow breakdown at
bottleneck locations. Simulation Modelling Practice and Theory, 22 :197–206.
[Kusano and Gabler, 2011] Kusano, K. D. and Gabler, H. (2011). Method for estimating time
to collision at braking in real-world, lead vehicle stopped rear-end crashes for use in pre-
crash system design. SAE International Journal of Passenger Cars-Mechanical Systems,
4(1) :435–443.
[Laval and Leclercq, 2010] Laval, J. A. and Leclercq, L. (2010). A mechanism to describe the
formation and propagation of stop-and-go waves in congested freeway traffic. Philosophical
Transactions of the Royal Society A : Mathematical, Physical and Engineering Sciences,
368(1928) :4519–4541.
[Le Vine et al., 2015] Le Vine, S., Zolfaghari, A., and Polak, J. (2015). Autonomous cars :
The tension between occupant experience and intersection capacity. Transportation Re-
search Part C : Emerging Technologies, 52 :1–14.
[Leclercq et al., 2014] Leclercq, L., Knoop, V. L., Marczak, F., and Hoogendoorn, S. P.
(2014). Capacity drops at merges : New analytical investigations. In Intelligent Transpor-
tation Systems (ITSC), 2014 IEEE 17th International Conference on, pages 1129–1134.
IEEE.
[Ma and Andréasson, 2005] Ma, X. and Andréasson, I. (2005). Predicting the effect of va-
rious ISA penetration grades on pedestrian safety by simulation. Accident Analysis and
Prevention, 37(6) :1162–1169.
[Marczak, 2012] Marczak, F. (2012). A new filtering method for trajectories measurement 1
errors 2 and its comparison with existing methods. pages 1–21.
107
109.
[Merat et al.,2014] Merat, N., Jamson, A. H., Lai, F. C., Daly, M., and Carsten, O. M.
(2014). Transition to manual : Driver behaviour when resuming control from a highly
automated vehicle. Transportation Research Part F : Traffic Psychology and Behaviour,
27 :274–282.
[Milanés and Shladover, 2014] Milanés, V. and Shladover, S. E. (2014). Modeling coopera-
tive and autonomous adaptive cruise control dynamic responses using experimental data.
Transportation Research Part C : Emerging Technologies, 48 :285–300.
[Montanino, 2013] Montanino, M. (2013). Making NGSIM data usable for studies on traffic
flow theory : a multistep method for vehicle trajectory reconstruction TRB 2013 Annual
Meeting Paper revised from original submittal . TRB 2013 Annual Meeting Paper revised
from original submittal . pages 1–20.
[Olia et al., 2015] Olia, A., Abdelgawad, H., Abdulhai, B., and Razavi, S. N. (2015). Traffic-
flow characteristics of cooperative vs. autonomous automated vehicles. Technical report.
[Punzo et al., 2011] Punzo, V., Borzacchiello, M. T., and Ciuffo, B. (2011). On the assess-
ment of vehicle trajectory data accuracy and application to the Next Generation SIMu-
lation (NGSIM) program data. Transportation Research Part C : Emerging Technologies,
19(6) :1243–1262.
[Punzo et al., 2013] Punzo, V., Researcher, S., Fermi, V. E., Montanino, M., Claudio, V., and
Ciuffo, B. (2013). Goodness of fit function in the frequency domain for robust calibration
of microscopic traffic flow models TRB 2013 Annual Meeting Paper revised from original
submittal . TRB 2013 Annual Meeting Paper revised from original submittal . pages 1–13.
[Rivoirard and Buisson, 2016] Rivoirard, L. and Buisson, C. (2016). How many takeover are
needed for low speed automation in a congested freeway traffic. Transportation Research
Board.
[Taehyung et al., 2011] Taehyung, K., Lovell, D. J., Kim, H., and Oh, C. (2011). Empirical
Results of Effects of Various Causal Factors on Car-Following Behavior. Transportation
Research Record : Journal of the Transportation Research Board, 2188(-1) :174–186.
[Taylor et al., 2015] Taylor, J., Zhou, X., Rouphail, N. M., and Porter, R. J. (2015). Method
for investigating intradriver heterogeneity using vehicle trajectory data : A Dynamic Time
Warping approach. Transportation Research Part B : Methodological, 73 :59–80.
[Toledo et al., 2007] Toledo, T., Koutsopoulos, H., and Kazi, A. (2007). Estimation of Vehicle
Trajectories with Locally Weighted Regression. Transportation Research Record, 1999 :161–
169.
[Tordeux et al., 2010] Tordeux, A., Lassarre, S., and Roussignol, M. (2010). An adaptive
time gap car-following model. Transportation Research Part B : Methodological, 44(8-
9) :1115–1131.
108
110.
[Vieira Da Rocha,2013] Vieira Da Rocha, T. (2013). Quantification des erreurs associees à
l’usage de trajectoires simplifiees, issues de modèles de trafic, pour le calcul de la consom-
mation en carburant. PhD thesis, Ecole Nationale des Travaux Publics de l’Etat.
[Vogel, 2003] Vogel, K. (2003). A comparison of headway and time to collision as safety
indicators. Accident Analysis & Prevention, 35(3) :427–433.
[Wang et al., 2010] Wang, H., Wang, W., Chen, J., and Jing, M. (2010). Using Trajectory
Data to Analyze Intradriver Heterogeneity in Car-Following. Transportation Research
Record : Journal of the Transportation Research Board, 2188 :85–95.
[Wang et al., 2014] Wang, M., Daamen, W., Hoogendoorn, S. P., and van Arem, B. (2014).
Rolling horizon control framework for driver assistance systems. Part II : Cooperative
sensing and cooperative control. Transportation Research Part C : Emerging Technologies,
40 :290–311.
[Wang et al., 2011] Wang, W., Zhang, W., Guo, H., Bubb, H., and Ikeuchi, K. (2011). A
safety-based approaching behavioural model with various driving characteristics. Trans-
portation Research Part C : Emerging Technologies, 19(6) :1202–1214.
109