1. RECHERCHE SUR LE RELIEF INTERACTIF EN TEMPS REEL :
« PERCEPTION », HORLOGE EN RELIEF
LORENA DOMINGUEZ
MASTER ARTS, MENTION ARTS ET TECHNOLOGIES DE L’IMAGE,
SPECIALITE : IMAGE NUMERIQUES ET REALITE VIRTUELLE
UNIVERSITE PARIS 8 VINCENNES-SAINT DENIS
A.T.I, ARTS ET TECHNOLOGIES DE L’IMAGE
2008
2. REMERCIEMENTS
Cette étude n’aurait pu être réalisée sans l’aide de Marie-Hélène Tramus, Pascal
Ruiz et Cédric Plessiet pour m’avoir suivi tout au long de cette année dans le
développement de mon projet.
Je tiens également à remercier aux membres du jury George Le Piouffle et Lolet
Ong, et mes amis de M2, Antoine Zanutinni, Diana Meza et Florencia Aguilera.
Je tiens à remercier à mes parents Mariela Marin et Dario Dominguez qui m’ont
toujours soutenu, et à mon frère, Daniel Dominguez parce que grâce à lui, je reussi à
avoir le succès que j’ai maintenant.
Comme professionnel j’ai grandi comme personne aussi, merci à tout les gens qui
ont était tout au long de cette année et cette expérience et qui sans savoir m’ont
changé la vie et la façon de regarder le monde.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 2
3. SOMMAIRE
INTRODUCTION 4
1. PRESENTATION DU PROJET 5
1.1. Concepts de base 5
1.1.1. La stéréoscopie 5
1.1.2. La Réalité Virtuelle 10
1.1.3. Manipulation Virtuelle et 3D Interactif 13
2. ETAT DE L’ART 16
2.1. ARTISTIQUE 16
2.1.1. Daniel Buren 16
2.1.2. George Rousse 18
2.1.3. Felice Varini 19
2.2. TECHNIQUE 21
2.2.1. Le Relief 22
2.2.2. Imax 23
2.2.3. Ecran 3D 25
2.2.4. Auto stéréoscopie 26
2.2.5. Gant de donnés 28
2.2.6. Open Graphics Library 28
3. « PERCEPTION », HORLOGE EN RELIEF 29
3.1. Environnement virtuel 31
3.1.1. L’horloge 31
3.1.2. Caractéristiques 32
3.2. Mise en œuvre et développement 32
3.2.1. L’écran : Newsight 32
3.2.2. Organigramme du programme 34
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 3
4. 3.2.3. Le gant : P5 Glove 45
4. PLANNING 48
CONCLUSION 49
BIBLIOGRAPHIE 50
REFERENCES AUDIOVISUELLES 51
INDEX DE FIGURES 52
MAUEL DE L’UTILISATEUR 54
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 4
5. INTRODUCTION
Ceci est le mémoire de Master 2 accompagnant le projet artistique qui a pour titre
« Perception », horloge en relief. Ce projet a été effectué dans le cadre des études
de master Arts et Technologies de l'image (ATI) de l'université Paris 8. Le projet est
la création d'une installation interactive mettant en œuvre des interfaces de réalité
virtuelle : gant de données pour l'interaction manuelle, et écran en relief pour une
visualisation stéréoscopique. L'installation a été développée dans le langage de
programmation C++ en utilisant la bibliothèque graphique OpenGL.
Le projet est une application en temps réel où le spectateur, grâce au gant de
données, peut manipuler l'orientation du point de vue d'une horloge qu'il voit en relief
afin d'obtenir, selon les rotations de sa main dans l'espace, soit l'heure de Colombie,
soit l'heure de France.
Ainsi, l'objectif principal du projet est de développer une application artistique, en
utilisant de nouvelles technologies, en l'accompagnant d'une recherche approfondie
sur le relief interactif en temps réel.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 5
6. 1. PRESENTATION DU PROJET
Ne pourrait-on pas dire : le temps d'un côté de l'océan est équivalent au temps de
l'autre côté de l'océan, d'un côté le vieux continent de l'autre côté ce qui est nouveau,
d'un côté l'expérience et de l'autre l'espoir ?
« Perception » : horloge en relief, est un projet personnel qui montre la relation entre
l’art et la technologie. C’est un travail qui s’inspire de nombreux artistes du 20ème et
21ème siècle (Soto, Vasarely, Buren, Toroni, Viallat.), mais plus particulièrement
d’artistes d’art contemporain, comme Felice Varini et Georges Rousse.
Dans ce projet, je travaille sur les illusions de la perception visuelle. Pour cela,
j’utilise une interface de réalité virtuelle, le gant de données afin de proposer une
interaction en temps réel entre l’utilisateur et les objets virtuels 3D affichés sur un
écran relief.
1.1. CONCEPTS DE BASE
1.1.1. La stéréoscopie
Cette partie à été élaborée à partir du site internet www.wikipedia.org
« La stéréoscopie est l’ensemble des techniques mises en œuvre pour reproduire
une perception du relief à partir de deux images planes. Elle est née pratiquement en
même temps que la photographie, bien que l’on en trouve des traces plus anciennes
dans des interrogations et expérimentations picturales. Ainsi, le musée Wicar, à Lille,
conserve deux dessins distinguant les visions d’un même sujet pour chaque œil,
exécutés par Jacobo Chimenti, peintre de l’école florentine (1554 – 1640).
La stéréoscopie se base sur le fait que la perception humaine du relief se forme dans
le cerveau lorsqu’il reconstitue une seule image à partir de la perception des deux
images planes et différentes provenant de chaque œil.
Il existe, pour réaliser ces images, aussi bien que pour les observer, une grande
variété de moyens, à la description desquels plusieurs certaines de livres ont été
consacrés.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 6
7. Physiologie de la vue stéréoscopique :
La vision stéréoscopique est due, en grande partie, aux neurones binoculaires situés
dans le cortex cérébral au niveau des zones spécifiques et primaires du traitement
de la vision. Ces neurones binoculaires sont les seuls neurones à recevoir l’influx
nerveux de deux neurones homonymes de la rétine via la chaîne neuronale.
Les images gauche et droite du même objet, captées en même temps par les deux
rétines, sont acheminées au cortex visuel par les nerfs optiques qui se croisent dans
le « chiasma », ce qui fait qu’elles sont présentes dans des cellules voisines du
cortex visuel. David Hubel, prix Nobel de médecine, fait aussi remarquer que les
cellules des parties gauche et droite du cortex visuel communiquent aussi par le
corps calleux, ce qui contribue au mécanisme de la fusion binoculaire.
Cette double information permet par des mécanismes complexes faisant intervenir
d’autres zones du cerveau la perception de l’angle entre l’information visuelle captée
par des photorécepteurs d’un œil et ses homologues de l’autre œil permettant de
percevoir les reliefs et la distance.
La vision stéréoscopique est normalement très précise (on apprécie couramment un
écart en profondeur de dix centimètres à une distance de dix mètres), de précision
inversement proportionnelle à la distance, et limitée en amplitude : on voit
difficilement en relief un objet très rapproché ou un objet très éloigné.
La vision stéréoscopique est troublée, sinon empêchée, par divers défauts des
images : décalages verticaux, contradictions du relief, excès de parallaxe, « images
fantômes » ou vision atténuée de la vue droit par l’œil gauche et réciproquement,
dissymétrie de la luminosité. »
La stéréoscopie, l’image stéréographique, ou l’image tridimensionnelle est alors,
toute technique capable de restituer une information visuelle tridimensionnelle et de
créer l’illusion de profondeur de l’image. L’illusion est créée en présentant une image
légèrement différente pour chaque œil. Beaucoup d’écrans 3D utilisent cette
méthode (inventé par Sir Cause Wheatstone dans 1838), pour transmettre des
images.
Les images stéréographiques ont été faites pendant des années, en superposant
deux photographies prises depuis des angles légèrement différents. Toutefois, elles
sont actuellement de nouveau sur le devant de scène, grâce aux RDS (Random Dot
Stereogram), créés par des programmes informatiques (figure 1).
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 7
8. Figure 1. Image stéréographique
La photographie stéréoscopique traditionnelle consiste à créer une illusion
tridimensionnelle à partir d’une paire de 2 images. La manière la plus facile à créer
l’effet de profondeur est de fournir deux images, une pour chaque œil du spectateur
en représentant deux perspectives du même objet, avec une déviation minimale
semblable aux perspectives que les deux yeux reçoivent naturellement dans la vision
binoculaire.
Il existe beaucoup de techniques différentes pour obtenir chaque image à l’œil qui lui
correspond. Dans la création de ces sensations spatiales interviennent des aspects
tant de la vision monoculaire comme de la vision binoculaire. Celles-ci
caractéristiques sont renforcez artificiellement pour obtenir l’effet de
tridimensionnalité.
Vision croisée :
« La méthode de vision croisée, permet de visualiser l’image tridimensionnelle en
maintenant son information de couleur complète (figure 2), ce qui n’est pas possible
avec la méthode anaglyphe et les lunettes rouge-cyan.
Figure 2. Exemple d'image en vision croisé
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 8
9. La méthode consiste principalement en vous forçant un peu, avec un léger strabisme
convergeant, vous réussirez à voir une troisième image au centre. Après mis au
point, vous verrez une troisième image en relief (figure 2, figure 3). »
Figure 3. Exemple vision croisée. Image projet original
Anaglyphe :
« L’anaglyphe de stéréophotographie prises ou traitées avec des filtres de différentes
couleurs superposées dans une seule image (figure 4). On observe au moyen de
lunettes appelée lunettes anaglyphe (figure 5), qu’ils ont un filtre de couleur différente
pour chaque œil.
Figure 4. Exemple d'anaglyphe
La mission de ces filtres est de faire arriver à chaque œil uniquement l’image qui lui
correspond. On parvient ainsi à filtrer les images et à obtenir l’effet souhaité et
nécessaire pour que le cerveau puisse interpréter la tridimensionnalité à partir de
chaque image différente pour chaque œil.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 9
10. Figure 5. Lunettes anaglyphe
Un anaglyphe est réalisé à partir de deux vues respectivement droite et gauche. Le
principe de base est d’extraire dans le cas d’anaglyphe rouge-cyan les composantes
verte et bleu de l’image gauche (figure 6) et la composante rouge de l’image droite
(figure 7) et puis de recombiner ces trois composantes en une image unique (figure
8). »
Figure 6. Image filtrée œil gauche Figure 7. Image filtrée œil droite
Figure 8. Image anaglyphe
La plupart de logiciels de traitement d’images permettent de séparer, puis de
recombiner les composantes de couleur des images : en combinant la composante
rouge de la vue gauche, et verte et bleue de la vue droite, on obtient un anaglyphe
convenable, dans lequel les couleurs jaunes, ocres, brunes, bleues, vertes pâles
sont bien restituées par de filtre rouge et cyan. Il existe de nombreux autres procédés
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 10
11. plus élaborés et qui permettent de corriger les problèmes inhérents et d’obtenir des
meilleurs anaglyphes.
1.1.2. Réalité Virtuelle
Cette partie a été élaborée à partir d’ouvrage suivant : Jaron Lanier et Scott Fisher,
Inventeurs de la réalité virtuelle (1986 – 1989) par Jean Segura et « Réalité
virtuelle » et des sites suivants : wikipedia.org, www.jeansegura.fr/lanier_fischer.html
et www.vision1to1.com, http://rzr.online.fr/docs/net3d/lexique.htm.
La réalité virtuelle est une simulation informatique interactive immersive, visuelle,
sonore et/ou haptique, d’environnements réels ou imaginaires ; où le monde
tridimensionnel, est entièrement généré par ordinateur, dans lequel on
peut s'immerger et agir en temps réel à l'aide d'une série d'interfaces
spécifiques comme le casque de visualisation, et les gants tactiles.
Un peut d’histoire : « Les précurseurs de cette technique sont : Ivan Sutherland (MIT,
puis Université d’Utah) qui a conçu en 1968-1970 l’ « Ultimate Display », premier
casque de visualisation asservi aux mouvements de la tête, Thomas Furmess (US
Air Force) qui à dirigé à partir de 1977 le programme Visually-Coupled Airbone
Systems Simulator (VCASS) sur les cockpits virtuels, Fred Brooks (Université de
Caroline du Nord) qui à partir de 1967 a développé un bras à retour d’effort
(haptique) pour environnements virtuels, ou encore Myron Krueger, inventeur
pendant la décénnie 1975-1985 de la « réalité artificielle » permettant d’interagir en
temps réel avec des images infographiques sur écran.
Mais l'histoire de la RV proprement dite commence lorsque Michæl McGreevy
(centre NASA-Ames en Californie) lance en 1984 le programme VIVED ou Virtual
Environment Display destiné à offrir aux astronautes un nouvel outil d'affichage
d'informations et de données pour leurs futures missions spatiales. Avec James
Humphries, ce jeune chercheur met au point une version économique du visuel de
casque de l'US Air Force. Celui de la NASA est fabriqué à partir d'écrans LCD de
mini-téléviseurs du commerce et d'un capteur de position magnétique Polhemus;
l'ensemble étant monté sur un casque de moto et relié par câble à une console
graphique Evans et Sutherland et un ordinateur Digital.
En 1985, le projet VIVED est repris par Scott Fisher, un ingénieur de 34 ans issu du
MIT qui, après deux ans chez Atari Research, vient d'être engagé par la NASA en
tant que spécialiste de la perception binoculaire et des médias interactifs. Jusqu'en
1990, Fisher va d'une part entreprendre toute une série d'améliorations techniques et
d'extensions au projet et d'autre part lui donner de multiples objectifs scientifiques :
préparation de missions extra véhiculaires dans l'espace, visualisation de flux,
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 11
12. simulations en chirurgie, biochimie, télé opération de robots, etc. Le casque est
d'abord amélioré par l'addition d'optiques qui élargissent le champ visuel. Puis avec
la société Crystal River Engineering, le système va s'enrichir d'un dispositif
permettant de générer un environnement acoustique tridimensionnel. Fisher ajoute
aussi la commande vocale à l'aide de composants de reconnaissance et de synthèse
du commerce. Mais il manque encore quelque chose d'essentiel, la « main », comme
moyen de commande et d'interaction par le geste. C'est Jaron Lanier qui va la lui
fournir.
De huit ans le cadet de Scott Fisher, Jaron Lanier a le parcours atypique d'un
autodidacte, compositeur de musique et passionné d'informatique. Depuis le début
des années 80, il travaille à la mise au point d'un langage de programmation, le
« Mandala », faisant appel à des représentations visuelles dynamiques sur écran,
plutôt qu'à des lignes de code. A partir de 1983, il articule son « Mandala » avec un
gant de données, périphérique d'entrée gestuelle inventée par un autre chercheur
musicien, Thomas Zimmerman : cousus sur un gant de tissu, de fins tubes de
plastiques souples et creux (plus tard ce sera des fibres optiques) laissent passer
plus ou moins de lumière en fonction de l'angle de flexion des doigts. Pour
développer des applications commerciales de cette innovation, la société VPL
Research (Visual Programming Language) est alors créée par Lanier avec
Zimmerman ; et en 1985 Scott Fisher, qui pense pouvoir associer le casque de
McGreevy avec le gant de Lanier et Zimmerman passe un contrat avec cette start up
de la Silicon Valley.
Fisher demande alors à Warren Robinett, ex inventeur de jeux Atari, de lui
programmer une main virtuelle à partir des données en provenance du gant de VPL.
Robinett va aussi modéliser les différents mondes en 3D dans lesquels cette main va
opérer : laboratoire, navette spatiale, molécule d'hémoglobine, etc. En 1986, le
premier poste d'exploration de mondes virtuels est né. De la seule fonction
d'affichage visuel donnée au départ par McGreevy avec le projet VIVED, Fisher en a
élargi les contours pour en faire une station complète de travail pour environnements
virtuels ; et en 1988, le projet prend le nom de VIEW pour « Virtual Environment
Workstation ».
En outre, les applications robotiques imaginées par Fisher permettent de déboucher
sur le concept de télé-présence. De son côté VPL continue de développer des outils
matériels et logiciels à des fins commerciales entre 1986 et 1989 : les interfaces
(gant DataGlove et visiocasque Eyephone) et les logiciels (modeleur 3D Swivel,
rendu d'image Isaac et moteur de mouvements du corps Body Electric) sont intégrés
dans une architecture informatique (à base de Macintosh et de deux stations Silicon
Graphics) que VPL va proposer en 1989 sous le nom de système RB2 (« reality built
for two »). Lanier introduit au même moment la notion de télé virtualité qui permet à
deux opérateurs distants de se connecter simultanément dans le même monde
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 12
13. virtuel. Les premières démonstrations officielles de ce simulateur personnel ont lieu
en juin 1989 sur la côte ouest des Etats-Unis. Lancé par Lanier lui-même un
nouveau slogan circule : La Réalité Virtuelle Arrive ! »
« Dans les simulations visant la formation, la recherche ou une simple
démonstration, la réalité virtuelle nous permet de visualiser et de manipuler des
données extrêmement complexes et d’interagir directement avec des ordinateurs
d’une manière révolutionnaire.
Les applications de la RV sont en pleine expansion. Les architectes peuvent inviter
leurs clients à visiter des édifices avant leur construction. Dans le domaine de
l’automobile et de l’aviation, les ingénieurs utilisent la RV dans la conception des
moteurs et des pièces, réduisant ainsi les essais. Les travailleurs peuvent employer
la même technologie pour s’entraîner avant de commencer à se servir d’une nouvelle
machine, ce qui gagne du temps sur la chaîne de fabrication. La RV peut également
être utile en téléconférence, en chirurgie virtuelle ou pour simuler des exercices
militaires. Enfin, les personnes ayant une incapacité peuvent utiliser la RV pour
interagir, à l’intérieur d’un univers virtuel, avec des gens physiquement aptes. »
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 13
14. 1.1.3. Manipulation Virtuelle et 3D Interactif
« La 3D temps réel est une méthode de représentation de donnés tridimensionnels
dans laquelle chaque image composant l’animation est rendue dans l’instant qui
précède son affichage. La 3D temps réel s’oppose à la 3D pré-calculée dans la
mesure où le rendu des données 3D est immédiat. Le temps de rendu en 3D temps
réel est imperceptible, il doit être inférieur à la persistance rétinienne, ce qui explique
le besoin de l’accélération matérielle, en glide, en OpenGL, en Direct3D. Le rendu
des données 3D s’effectue directement sur le périphérique d’affichage, contrairement
à la 3D pré-calculée où le rendu est une vidéo.
Figure 9. Exemples des images pré‐claculée
La 3D temps réel permet de ce fait un grand degré d’interactivité, par exemple les
possibilités d’immersion, de contrôle d’animation, d’interactivité avec la scène 3D. La
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 14
15. 3D temps réel est utilisée dans les applications telles que la visite virtuelle, la
simulation, la visualisation et la conception CAO/CFAO et le jeu vidéo. »
Figure 10. Image de SolidWorks. Logiciel qui s'utilise dans la conception CAO/CFAO
Figure 11. Simulating New Architecture. CAVE est utilisé pour simuler une conception d’une nouvelle gare
pour évaluer sa fonctionnalité. (Image courtesy of Fakespace Systems Inc.)
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 15
16. Figure 12. Virtual Hand for V5. Automobile interior courtesy of PSA Peugeot Citroën
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 16
17. 2. ETAT DE L’ART
2.1. ARTISTIQUE
Pour mon projet, j’ai dressé une liste d’artistes et d’œuvres d’art contemporain
comme Buren, Toroni, Viallat, Soto, Vasarely, etc. Mais c’est surtout Felice Varini et
George Rousse, avec l’anamorphose et l’illusionnisme de volume qui sont
l’inspiration principale de mon projet. Je vais pour le deux dernière extraire de leurs
œuvres ce qui m’a paru le plus pertinent par rapport à mon projet.
Cette partie a été élaborée à partir de l’ouvrage suivant : Jonathan Crary, Techniques
of the Observer: On vision and Modernity in the Nineteenth Century, Cambridge,
Massachusetts, The MIT, 2001, et des sites suivants :
http://www.evene.fr/celebre/biographie/daniel-buren-5993.php, http://www.varini.org
http://fr.wikipedia.org/wiki/Georges_Rousse, http://www.georgesrousse.com.
2.1.1. Daniel Buren
Ses œuvres sont des installations spécifiques pour un lieu, comme Buren l’explique
lui-même : « Je n'expose pas des bandes rayées, mais des bandes rayées dans un
certain contexte » Buren.
« A partir de son travail, j’ai commencé à imaginer mon propre projet, avec l’idée de
contextualiser mon expérience en tant qu’étrangère grâce un environnement
technologique nouveau. A cette fin, j’ai réfléchi sur un concept qui soit que
représentatif du rapport des êtres humains au temps et à l’espace.
Formé à l’Ecole des métiers d’art, Buren a l’art traditionnel en horreur. Son goût pour
les rayures lui vient de l’emploi dans ses premières œuvres de tissu industriel à
larges bandes verticales, rayures devenues très vite une signature à part entière
(Figure 9).
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 17
18. Figure 13. Entrée du Musée Fabre, Montpellier
Il accompagne ses installations sonores et visuelles de notes explicatives, s’érigeant
ainsi en théoricien de son propre travail. Buren installe ses créations minimalistes
dans des lieux publics afin de les dévoyer, selon une vision subversive de l’art
(Figure 10).
Figure 14. 25 portico: The Color and its Reflections June 1996, travail in situ Tokyo, Japan
Ses œuvres monumentales place des Terreux à Lyon et dans la cour du Palais-
Royal de Paris (les « Colonnes de Buren ») (Figure 4), ont été controversées dès
leur mise en chantier en 1985, ce qui n’empêche pas cet artiste d’être reconnu dans
le monde entier. En 1986, il obtient le lion d’or à la Biennale de Venise. »
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 18
19. Figure 15. Palais‐Royal de Paris les colonnes de Buren
2.1.2. George Rousse
Outre artiste qui m’a donné plus de clarté sur mon projet, est George Rousse,
photographe française, qui mélange dans la même pratique peinture et photographie
(Figures 12.a. et 12.b). A cause de son travail, j’ai commencé à voir la possibilité de
mélanger les angles et les perspectives de visualisation d’une image ou d’une scène
et créer des illusions optiques que permette la perception intégrée de figures
géométriques dans un espace réel.
Figure 16.a. Chesterfield 1 Figure 12.b. Baldwin 2
« Rousse s’intéresse à l’espace et à la disposition des plans à investir, les figures
sont peintes sur différents murs par petits morceaux (Figure 13. a), puis il
photographie à partir du bon point de vue afin de reconstituer l’unité de l’espace.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 19
20. L’anamorphose et l’illusionnisme, devient présente dans ses œuvres
photographiques. En effet, les formes réalisées n’existent que par la photographie
(Figure 13. b) contrairement à Varini qui fait partager aux spectateurs l’expérience de
l’illusion sur le lieu lui-même.
Figure 17.a. Construction de l'œuvre Baldwin 1 Figure 13.b. Œuvre final Baldwin 1
Rousse utilise comme technique, un appareil photographique, 10/12, avec chambre
et verre dépoli. Il dessine le décor sur le verre dépoli avant de photographier le décor
choisi. Un plus il utilise un appareil Polaroïd pour garder en mémoire l’espace de
travail. »
Figure 18: Cibachrome Turin 2, 1999. Galerie RX, Paris
2.1.3. Felice Varini
Felice Varini est un artiste que j’admire beaucoup. Son travail ingénieux et créatif m’a
montré que l’art n’est pas toujours sur une toile accrochée à un mur dans un musée.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 20
21. Varini est un peintre moins familier des musées que des espaces urbains ou privés
qui constituent son domaine d’élection.
« Son art se matérialise, pour le spectateur, à partir d’un point d’observation privilégié
que Varini a déterminé à la hauteur de ses yeux, c’est-à-dire à partir de son propre
point de vue au moment où il a créé l’œuvre. Ce point de vue, c’est le point de départ
possible de son approche de la peinture et de l’espace. La forme peinte est
cohérente quand le spectateur se trouve au point de vue du créateur.
A partir de figures géométriques simples, ligne, cercle, carré, point, de couleurs
primaires, distribuées dans un espace tridimensionnel, Varini s’attache à la
fabrication illusionniste d’un espace bidimensionnel.
Dans la tradition néo-avant-gardiste, Varini crée dans le même temps qu’il les
questionne les projections de ses propres œuvres, les propriétés de la surface qu’il
révèle et les possibilités de cette peinture à la « surface sans surface ». Varini
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 21
22. redirige l’œil du spectateur vers une géométrie qui resterait autrement non
mentionnée et vers un espace autrement non visible. »
« Une relation fondamentalement arbitraire entre le stimulus et la sensation […] La
vision est redéfinie comme la capacité à se laisser toucher par des sensations qui
n’ont pas nécessairement de lien avec un référent, ce qui met en péril tout système
de signification cohérent 1».
2.2. TECHNIQUE
Lorsque j’ai commencé à lire et étudier un peu plus en détail le sujet du relief
interactif, j’ai recherché des informations sur la projection et l’affichage d’images et
de vidéos en 3D. Les systèmes que j’ai trouvés, sont des nouvelles technologies (par
exemple les systèmes d’holographie, les systèmes permettant de simuler l’effet de
l’holographie et les environnements prisme qui affiche les objets et les images en 3D
dans une gamme de 360° (figure 15), Imax, alyoscopie, etc.) ils sont de mon intérêt
depuis le début du master car je voulais explorer des nouveaux systèmes de
projection et d’affichage. Par la connaissance et la compréhension de ces systèmes,
j’ai trouvé que la plus part, travaillaient uniquement dans la projection et l’affichage
de l’information, donc je voulais développer une application dans laquelle l’utilisateur
pourrait interagir et faire partie de ce qu’il voit.
Ainsi, parmi les moyens de projection et d’affichage en relief, le système de l’écran
en relief (l’écran « Newsight » par exemple) est le plus approprié au projet en raison
des possibilités d’interactivité, car elle permet d’afficher les applications développées
sur C++ avec OpenGL, donnant une sensation de la profondeur et du relief. La partie
suivant, parle sur ces systèmes de projection, de la réalité virtuelle et de
l’interactivité.
1
Jonathan Crary, Techniques of the Observer: On vision and Modernity in the Nineteenth Century, Cambridge,
Massachusetts, The MIT, 2001, p. 91.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 22
23. Cette partie a été élaborée à partir d’ouvrage suivant : « C’est pas sorcier ».
Futuroscope Education et des sites suivants : wikipedia.org, http://www.alioscopy.eu
et www.vision1to1.com, http://rzr.online.fr/docs/net3d/lexique.htm, www.presence-
pc.com/actualite/cheoptics-360-xl-19664.
2.2.1. Le Relief
« Le relief attire l'attention et captive le regard dans un monde où les images sont
banalisées. Une image en relief de qualité génère un comportement particulier : on
s'y arrête, on l'observe longuement et en détail, on y prend du plaisir. On la
mémorise donc mieux et l'impact du message en est encore renforcé.
Un intérêt majeur de l'image en relief réside dans sa capacité à offrir au regard un
substitut réaliste à ce qui ne peut être présenté physiquement, que ce soit pour des
contraintes de disponibilité, de surface, d'accessibilité, de fragilité ou de sécurité. Par
exemple, de personnages, d'objets précieux ou dangereux, d'objets virtuels.
Le relief apporte aussi une dimension pédagogique en favorisant la perception et la
compréhension du sujet, par animation d'images fixes réelles ou de synthèse. Si un
objet présenté à l'échelle 1 offre un quasi-substitut au réel, les changements
d'échelle permettent également des effets intéressants (effet de maquette,
gigantisme). Combiné à la reconstitution informatique (3D, scanner laser,
photogrammétrie) le relief est l'ultime étape du réalisme.
Figure 19. Ecran Alioscopy 40quot; full HD
viZoo est une agence créant des dispositifs intégrant des hologrammes 3D pour des
salons, des défilés, des vitrines de magasins. viZoo a récemment fait la présentation
de son nouveau système d’affichage holographique disposant d’un angle de vision
de 360 degrés. Le Cheoptics 360 XL se compose d’une pyramide de quatre côtés.
Les matériaux composants cette pyramide sont transparents le but étant de voir aux
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 23
24. travers. La pyramide utilise en fait un système de miroir et de réflexion constitué en
prisme assemblant la lumière émanant de quatre projections vidéo afin de former
une image dans l’espace. On obtient ainsi une image en 3D disposant d’un angle de
vision de 360°.
Figure 20. Cheoptics 360
« Les hologrammes sont plutôt cool, aussi c'est étonnant de voir le Générateur
Hologramme 3D Mirage (Mirage 3D Hologram Generator) créer un hologramme 3D
parfait sans utiliser un iota d'électricité. Cet instrument optique de précision a été
fabriqué pour reproduire des fractions de pouce, aussi l'objet sera recréé fidèlement
et avec réalisme. Mettez l'objet dans un bol, couvrez le, et le hologramme sera
généré »http://www.ubergizmo.com/fr/archives/2007/02/les_hologrammes_ont_lair_i
ncroyablement_reel.php.
Figure 21. Mirage 3D Hologram Generator
2.2.2. Imax
L’écran IMAX (de l'anglais Image Maximum) créé par l'IMAX Corporation, au
Canada, est dix fois plus grand qu’un écran de cinéma traditionnel. Il mesure environ
600 m2 et est haut comme un immeuble de sept étages. Sur un écran de cette
dimension, on pourrait projeter l’image d’une baleine grandeur nature ! La salle est
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 24
25. pentue pour permettre au spectateur d’être assis au plus près de l’écran. De cette
manière, l’image occupe presque entièrement le champ de vision et on est
complètement immergé dans l’action.
En 2008, IMAX était le système le plus large utilisé pour la projection de films. En
mars 2007, il existait 280 salles IMAX dans 38 pays différents (60 % se situaient au
Canada et aux États-Unis, dont la moitié dans un but commercial, et l'autre moitié
dans un but d'éducation). Une variation de l'IMAX est l'IMAX DOME (appelé
initialement OMNIMAX), qui est désigné pour la projection sur des écrans inclinés.
Les films peuvent également être projetés en relief, grâce à l'IMAX 3D. Le plus grand
« IMAX Dome » à ce jour se trouve dans le Liberty Science Center (Jersey City), de
même, le plus grand écran de cinéma se situe à Sydney, en Australie, avec 29,42
sur 35,73 m2.
Figure 22. Imax Dome à Valence
Le but du format IMAX est d'augmenter la résolution de l'image en utilisant une
pellicule large pour obtenir une résolution comparable à 10 000 x 7 000 pixels (soit
70 megapixels). Pour réaliser ceci, une pellicule spéciale au format 70 mm est
déroulée horizontalement par les caméras ; tandis qu'une pellicule traditionnelle de
70 mm est composée d'image au format de 48,5 millimètres de largeur sur
22,1 millimètres de longueur (pour la Todd-AO), le format IMAX donne à l'image une
largeur de 69,6 millimètres et une longueur de 48,5 millimètres. Pour projeter à une
vitesse standard de 24 images par secondes, trois fois plus de pellicules sont
nécessaires lors de la prise avec la caméra chaque seconde.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 25
26. Figure 23. Salles Imax
2.2.3. Ecran 3D
Cette partie a été élaborée à partir des sites internet
http://www.lefigaro.fr/medias/2008/01/05/04002-20080105ARTFIG00042-la-
television-en-reliefdevient-une-realite-.php « La télévision en relief devient une
réalité ». Marc Cherki et www.wikipedia.org
« C’est possible que les téléviseurs écran plats de haute définition aillent passer à un
douzième plan. Grace à les nouvelles technologies aujourd’hui c’est possible le
développement des téléviseurs qui permettent regarder l’écran en relief, tous les
industriels travaillent sur cette télévision en 3D. Le japonais Arisawa conçoit des
écrans spéciaux, à condition que le téléspectateur porte des lunettes polarisées
spéciales qui séparent deux images diffusées en même temps. Mais équiper la
famille de lunettes semble peu pratique. C'est pourquoi LG, Sony ou Philips
élaborent des écrans 3D qui ne nécessitent pas de lunette.
Figure 24. Philips a conçu un logiciel, baptisé Wowvx,
qui permet de convertir en relief toutes les émissions (DR)
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 26
27. Pour alimenter ces téléviseurs en programme, toute une industrie doit se mettre en
place. De nouvelles caméras, adaptées à la 3D, composées de deux objectifs liés
l'un à l'autre, sont commercialisées par Sony, Thomson et Pace. Ensuite, le
néerlandais Philips, une start-up de la Silicon Valley, DDD, et la société de Montréal
Sensio, ont chacune conçu des logiciels qui convertissent les émissions
traditionnelles en images en relief. Un premier écran, placé dans le casino
d'Amsterdam, démontre ces avancées.
Le sud-coréen Samsung propose, un premier écran «3D ready». Il s'agit d'un nouvel
écran de grande taille, qui coûte 2 000 dollars, adapté à la diffusion de films en relief.
Figure 25. 3D‐Ready DLP® HDTVs
Un petit adaptateur (coût de 200 dollars) commande les lunettes spéciales du
téléspectateur, en obturant très rapidement l'œil gauche puis l'œil droit pour créer
l'impression de relief. Ce système intègre une technologie de diffusion d'images
élaborée par l'américain Texas Instruments. Ces écrans devraient arriver en France
en 2009. »
2.2.4. Auto stéréoscopie
« L’auto stéréoscopie se distingue de la stéréoscopie classique par le fait que l’image
peut être observée en relief sans imposer le port de lunettes spéciales. On a pu dire
que l’écran porte les lunettes et l’observateur n’en a donc pas besoin pour voir
l’image en relief. Il existe plusieurs systèmes d'auto stéréoscopie, dont les principaux
sont les réseaux lignés et lenticulaires, l’auto stéréoscopie à illumination, l’auto
stéréoscopie à écran holographique et l’auto stéréoscopie à barrière de parallaxe. »
Pour le projet, j’utilise l’écran en relief Newsight de 32’’. Cet écran utilise le principe
de l’auto stéréoscopie à barrière de parallaxe donc cette méthode serra présentée
dans la partie 3.2 Mise en œuvre et développement de la page 32.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 27
28. Auto-stéréoscopie à réseau lenticulaire :
« Inventé en 1908 par Gabriel Lippmann, réalisé en 1920 par Hess, le principe du
réseau lenticulaire a été largement perfectionné pour la photographie par Maurice
Bonet.
L’impression de relief est obtenue grâce à un réseau de microlentilles (réseau
lenticulaire) placé à la surface de l’image, constituée d’images imbriquées
représentant chacun un point de vue pris sous un angle différent. Le réseau permet
d’adresser à chaque œil une image différente, le cerveau de l’observateur
reconstituant alors le relief.
Le français Pierre Allio adapte ce principe à la vidéo en 1987. Ses écrans auto-
stéréoscopiques sont commercialisés sous la marque Alioscopy. Leur caractéristique
principale est de restituer huit points de vue, au lieu des deux strictement
nécessaires, de façon à permettre un plus libre positionnement des spectateurs. Par
la suite, il développe un système de prise de vue multi caméra. Pour l'image fixe, il
utilise jusqu'à plusieurs dizaines de points de vue, afin d'améliorer la perception de la
profondeur.
Auto-stéréoscopie à illumination :
Il s’agit d’une variante de la barrière de parallaxe, en fait constitué de deux barrières
de parallaxe superposées. Système inventé en 1987 par Kaneko composé d’un
écran à cristaux liquide superposé à un écran compsé de colonnes lumineuse d’une
largeur de deux pixels. Les colonnes paires son vues par l’œil gauche et les
colonnes imapires par le droit. Les sociétés Dimension Technology, Sharp et NEC
auraient commercialisé ces écrans. On ne trouve dans le commerce, aux USA et
depuis 2004 seulement, qu’un ordinateur portable Sharp Actius pourvu d’un tel
écran.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 28
29. Auto-stéréoscopie à écran holographique :
Un élément Optique Holographique (HOE) est placé devant l’écran de visualisation.
Les images pour les deux yeux sont chacune projetées par un projecteur LCD et
réfléchies par un miroir sur un écran convexe. HDS screen est commercialisé par
Physical Optics Corporation. »
2.2.5. Gant de donnés
Un gant de donnés est un gant truffé de capteurs, qui permet à un utilisateur de
saisir presque naturellement un objet virtuel et de le manipuler, en numérisant en
temps réel les mouvements de la main. Il est utilisé pour l'interface homme-machine
dans la réalité virtuelle. Les gants de données sont des interfaces capables de
détecter certains, ou la totalité, des 20 mouvements relatifs des doigts par rapport au
poignet. Il existe différents types de gants de données et ils sont construits avec
différent éléments, par exemple la fibre optique.
2.2.6. Open Graphics Library
La programmation orientée objet a démontré sa supériorité sur la programmation
procédurale en tant qu'architecture dans plusieurs langages de programmation. Cela
entraîne des interfaces plus quot;propresquot; entre les sections de code, c'est plus simple à
déboguer, et ça convient mieux aux équipes de programmation importantes.
Le C++ est un langage de programmation permettant la programmation sous de
multiples paradigmes comme, par exemple, la programmation procédurale, la
programmation orientée objet et la programmation générique. Depuis 1995 environ,
C++ est le langage le plus utilisé au monde. Le langage C++ n'appartient à personne
et par conséquent n'importe qui peut l'utiliser sans payer de droits.
OpenGL est une interface logicielle destinée aux logiciels graphiques. Elle se
compose d’environ 250 commandes distinctes que l’on utilise pour définir les objets
et les opérations nécessaires à la génération d’applications interactives 3D.
OpenGL est une spécification qui définit une API multiplateforme pour la conception
d'applications générant des images 2D et 3D. Elle utilise en interne les
représentations de la géométrie projective pour éviter toute situation faisant intervenir
des infinis. OpenGL permet de créer de programmes interactifs produisant des
images en couleur d’objets tridimensionnels en déplacement.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 29
30. 3. « PERCEPTION», HORLOGE EN RELIEF
Selon le Temps moyen de Greenwich (GMT) (figure 26), la différence horaire entre
la France et la Colombie est de 7 heures. Le fuseau horaire de Paris est GMT+1
tandis que celle de la Colombie est GMT-5.
Figure 26. GMT carte
Pour le développement de l'horloge, j'ai effectué et testé 5 modèles différents afin
d’essayer de recréer l'effet que produisent les œuvres Varini ou de Rousse.
Le premier modèle consiste seulement d’une horloge qui, depuis la vue frontale
(figure 1, view front) apparait de face complètement restituée. Mais en réalité, il
existe une distance chaque fois différente entre les positions des aiguilles et les
chiffres des heures indiquées, comme le montre la figure ci-dessous (figure 2) issue
d’une vue perspective de côté.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 30
31. Figure 1 Figure 2
La seconde proposition est aussi une horloge qui, de face, est visualisée en entier.
Elle est composée de « carrés », qui se répartissent circulairement en éventail dans
le même plan et qui représentent chaque heure. Mais quand on se place de côté
dans la vue perspective, il apparait alors qu’il existe une distance de profondeur
entre chaque « carré » qui représente les heures : l’horloge qui semblait être dans un
seul plan devient une spirale qui se déploie dans un espace tridimensionnel.
La proposition suivante, comme les précédentes, est une horloge utilisant une
forme géométrique de base, le cylindre, pour représenter les heures. Là est aussi, de
face, nous voyons une horloge, mais, dans la vue perspective de côté apparait la
véritable situation des positions respectives des cylindres comme le montre les deux
figure suivantes.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 31
32. 3.1. Environnement virtuel
3.1.1. L’horloge
Le modèle suivant est celui choisi pour la réalisation du projet. Dans ce modèle
circulaire, on maintient le concept de distances différentes entre les éléments (cubes)
qui représentent les heures. Ils sont disposés de telle manière (voir figures ci-
dessous) que si on se place sur la vue supérieure « top » on obtient l’heure de la
Colombie, mon pays d’origine et si on se place sur le vue frontale (view frontal), alors
on obtient l’heure de la France, pays où je réalise cette recherche.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 32
33. 3.1.2. Caractéristiques
Sur l’écran, le spectateur voit une horloge qui donne deux zones horaires, l’heure de
la France et l’heure de la Colombie simultanément, mais selon deux points de vue
différents. Comme cela fonctionne ? Les nombres sont représentés par cubes qui
sont disposés selon un cercle dans l’espace tridimensionnel. Il y a trois aiguilles, qui
tournent selon l’horloge affiché.
La visualisation de l’heure de la France et de la Colombie s’obtient, pour la première,
en ayant un point de vue d’en haut (view top) et pour la seconde, en ayant un point
de vue frontal. Si on regarde d’un point de vue latéral, on remarque que tous les
cubes sont disposés à égale distance sur une diagonale, donnant l’illusion d’être sur
un cercle quand on a un point vue soit d’en haut soit frontal.
3.2. Mise en œuvre et développement
L’horloge a été développée initialement dans le logiciel Maya 2008 pour
expérimenter l’idée et pour pouvoir la tester visuellement. Puis la version interactive
du projet a été réalisée en développant un programme en C++ qui utilise la librairie
OpenGL pour afficher les formes tridimensionnelles et la librairie FMOD pour le son
en format MP3 ; sur un écran relief « marque Newsight de 32quot; » et qui interface le
gant de donnée « P5 ».
3.2.1. L’écran : Newsight
Auto stéréoscopie à barriere de parallaxe :
Les méthodes de la barrière de parallaxe étaient déjà utilisées depuis le début du
XXème Siècle. Le stéréogramme de parallaxe consiste une grille mise fine verticale
devant une image spécialement conçue. La grille est normalement faite d'un matériel
opaque avec des ruptures verticales transparentes et fines avec un esparciaient
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 33
34. régler. Chaque fente transparente agit comme fenêtre à un morceau vertical de
l'image mise derrière elle. Le morceau que nous voyons dépend de la position de
l'œil.
L'image du stéréogramme de parallaxe est faite en interpolant les colonnes à partir
de deux images. Cette image et la grille verticale sont alignées de sorte que l'œil
gauche puisse seulement voir les bandes de l'image pour l'œil gauche et l'œil droit
puisse seulement voir les bandes de l'image pour l'œil droit.
Mais les stéréogrammes de parallaxe utilisent généralement un nombre plus grand
d'images, non seulement une paire. Celles-ci peuvent être des images arbitraires ou
des images ordonnées dans une séquence de temps (dans ce cas l'stéréogramme
s'incline pour qu’il y ait l'impression du mouvement). L'image qui est derrière la
barrière est formée par des bandes de chaque image, mises une à côté d'une autre.
Le spectateur peut déplacer sa tête de côté à côté et voir divers aspects de la scène
3D, excepté dans une certaine position où les yeux voient les paires incorrectes.
Ceci se produit dans la transition d'une bande de l'image plus à gauche à une bande
de l'image plus à droite. Cet effet est réduit au minimum en utilisant une grande
quantité des images avec un angle très petit entre elles ou en maintenant une petite
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 34
35. profondeur de la vision. Malheureusement le nombre d'images est défini par la
résolution d'écran et de la barrière.
Figure 27. Newsight écran 3D utilisé pour le projet
3.2.2. Organigrammes du programme
Le programme à été développé avec le langage de programmation C++ en utilisent
les librairies standards: gl.h (pour la librairie OpenGL32), glu.h (pour la librairie
Glu32), glaux.h (librairie glaux), math.h (pour les fonctions mathématiques), time.h
(pour les fonctions de l’heure et la date). Et les librairies ObjLoader.h (pour importer
les fichiers *.obj du logiciel Maya), fmod.h (pour lire un MP3 sous C++), jpeg.h (pour
lire les images *.jpeg du fond et du reflet), et la librairie glove.h (pour les fonctions du
gant de données P5).
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 35
36. Les diagrammes d’arbres de la structure du programme sont les suivants :
La structure du Main : La structure de la class Cube :
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 36
37. ORGANIGRAMME DE LA FONCTION PROJECTION 3D
La matrice de modélisation-visualisation par défaut, matrice de projection.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 37
38. ORGANIGRAMME DE LA METHODE MDraw
La méthode MDraw, dessine les objets dans la scène, void Cube::MDraw( void ), dessine les points de chaque cube dans la scène.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 38
39. Apres dessiner les points, il faut dessiner les faces de chaque cube, pour cela on défini le méthode void Cube::MDraw( void ) ( int eFace )
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 39
40. Dans la dernier parti pour dessiner les objets, j’ai utilisée la librairie OBJLoader pour importer
les objets réalisés dans Maya pour avoir le niveau de détail de les cubes pour cela on défini
le méthode void Cube::MDrawObject( ObjFile id )
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 40
41. Les organigrammes suivants, montrent les méthodes pour les déplacements et les rotations
des objets dans l’espace tridimensionnel :
Méthode déplacement Méthode de rotation des objets
Les méthodes pour les déplacements («en chaine ») des cubes : un cube se déplace vers la
position du cube précédent toujours avec la même distance qu’il y a entre eux. Et pour
maintenir la position circuler de l’horloge.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 41
42. ORGANIGRAMME DE LA FONCTION InitGL
Dans la fonction InitGL, on initialise tous les paramètres OpenGL
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 42
43. ORGANIGRAMME DE LA FUNCTION DrawGLScene
C'est ici où on fait tout l’affichage des éléments de la scène : the OpenGL Render
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 43
44.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 44
45.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 45
46. 3.2.3. Le gant : P5 Glove
Pour le projet, j’utilise une interface de réalité virtuelle, le gant de données P5 Glove
(figure 20) afin de proposer une interaction en temps réel entre l’utilisateur et les
objets virtuels 3D affichés sur un écran relief.
Figure 28. P5 Glove, gant utilisé pour le projet
Le P5 Glove est un gant infrarouge inventé par la société quot;Essential Realityquot; et conçu
d'abord pour le jeu. Un récepteur permet de localiser la position de la main dans
l'espace. 5 capteurs de flexions placés au dessus des doigts donnent des
informations sur leur position.
Avec le kit logiciel de développement P5 c’est possible intégrer les fonctions du gant
dans le programme du développeur.
Le principe, qui utilise la SDK du gant, pour récupérer et programmer la rotation de la
main, c’est à partir des paramètres de dynamique de vol que sont les angles de
rotation en trois dimensions sur le centre de masse véhiculer, connu sous le nom
d’angles de Tait-Bryan :
l'axe x (roll): axe longitudinal ou axe de roulis.
l'axe y (yaw) : axe transversal ou axe de tangage.
l'axe z (pitch): axe de lacet.
Figure 29. Angles de Tait‐Bryan
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 46
47. Pour le programme j’utilise la rotation de l’axe z, avec une gamme entre 0° à 90°
montrent les aiguilles correspondant en fonction de la position de la main. Quand le
gant et parallèle au sol (0°) on voit l’heure de la France et quand on tourne le gant,
les dois vers le sol, position perpendiculaire au sol (90°) on voit l’heure de la
Colombie. Un autre paramètre qui a été pris en compte pour la manipulation du gant
est la vitesse de rotation.
P5.PollData();
positionGant.m_fX = P5.GetDataTX();
positionGant.m_fY = P5.GetDataTY();
positionGant.m_fZ = P5.GetDataTZ()*(-1);
rotationGant.m_fX = P5.GetDataRPitch();
rotationGant.m_fY = 0.0f;//P5.GetDataRYaw();
rotationGant.m_fZ = 0.0f;//P5.GetDataRRoll();
for(int j=bold-1;j>0;j--)
{
old[j] = old[j-1];
oldRotation[j] = oldRotation[j-1];
}
old[0] = positionGant;
oldRotation[0] = rotationGant;
for(int j=1;j<bold;j++)
{
positionGant += old[j];
rotationGant += oldRotation[j];
}
positionGant /= bold;
rotationGant /= bold;
positionGant /= 20.0;
/// fix position
//positionGant = Vecteur3d(0.0f,0.0f,0.0f);
rotationGant.m_fX += 90.0f;
if(rotationGant.m_fX > 45.0f)
{
rotationGant.m_fX = 0.0f;
}
else
{
rotationGant.m_fX = 90.0f;
}
//rotationGant.m_fX = max(0.0f, min( rotationGant.m_fX, 90.0f));
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 47
48. Enfin, les difficultés trouvées, au moment de mettre en œuvre le gant dans le cadre
du programme, sont en raison de la précision et la sensibilité du gant. On pourrait
dire que la sensibilité est assez élevée au niveau du capteur mais la précision du
gant dans l’ambiance virtuel n’est pas exacte.
De même, lors de la visualisation de l’application sur l’écran « Newsight » une sorte
de problèmes sont également trouvés ; le jaillissement et l’image floue. Pour cela il
faut changer les paramètres d’affichage de l’écran pour essayer d’améliorer cet effet
(Annexe 1: Manuel de l’utilisateur) mais changer ces paramètres peuvent également
modifier l’effet du relief de l’application.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 48
50. CONCLUSION
Cette année de recherche m'a permis d'améliorer mes techniques de travail et
d'apprendre l'utilisation de certaines interfaces de réalité virtuelle pour la création
artistique. J'ai pu expérimenter afin de connaître et d'explorer non seulement de
nouvelles technologies, comme le gant de données et l'écran en relief, qui sont en
train de changer la façon de regarder le monde tridimensionnel, mais aussi j'ai eu
l'occasion d'avoir une approche et un contact avec l'art. J'ai eu la possibilité de
comprendre et d'apprendre comme voir le monde à travers de l'expression artistique.
La science-fiction, la réalité virtuelle et les applications en temps réel, m'ont toujours
intéressée et cette recherche m'a permis de connaître des outils et des interfaces qui
m'ont donné l'opportunité d'aborder ces sujets en les associant.
Enfin, ce projet et cette année de Master, m'ont permis d'acquérir de nouvelles
connaissances sur le sujet du relief interactif et m'ont montré les différents moyens
qui existent pour développer des applications dans le domaine de la réalité virtuelle.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 50
51. BIBLIOGRAPHIE
• Jonathan Crary, Techniques of the Observer: On vision and Modernity in the
Nineteenth Century, Cambridge, Massachusetts, The MIT, 2001.
• http://www.bnr.bg/RadioBulgaria/Emission_English/Theme_Culture/Material/3
d_cinema.htm
• http://www.est-kl.com/aufbau_general/index_soft.html?http://www.est-
kl.com/software/immersion/vhv5.html
• http://dictionary.zdnet.com/definition/CAVE.html
• http://www.newsight.com/index.php?id=81
• http://support.ircam.fr/forum-ol-doc/nmi/1.45/doc-modules/co/P5.html
• http://www.gizmag.com/go/1148/
• http://www.ubergizmo.com/fr/archives/2007/02/les_hologrammes_ont_lair_incr
oyablement_reel.php
• http://www.nationmaster.com/encyclopedia/P5-Glove
• http://www.presence-pc.com/actualite/cheoptics-360-xl-19664/
• http://www.alioscopy.eu/fr/contenu/faq.php
• http://www.newsight.com/index.php?id=81
• http://www.arlab.nl/news_5.html
• http://www.axel.nm.ru/p5glove/programs/flash.html
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 51
52. REFERENCES AUDIOVISUELLES
• http://www.youtube.com/watch?v=-k5nt541SE0
• http://www.youtube.com/watch?v=FF1vFTQOWN4&feature=related
• http://www.youtube.com/watch?v=4rEIFGvD4wA&feature=related
• http://www.youtube.com/watch?v=wrxUYzWASvE&feature=related
• http://www.youtube.com/watch?v=ozTH2zIKwC0
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 52
53. INDEX DE FIGURES
Figure 1. Image stéréographique 8
Figure 2. Exemple d'image en vision croisé 8
Figure 3. Exemple vision croisée. Image projet original 9
Figure 4. Exemple d'anaglyphe 9
Figure 5. Lunettes anaglyphe 10
Figure 6. Image filtrée œil gauche 10
Figure 7. Image filtrée œil droite 10
Figure 8. Image anaglyphe 10
Figure 9. Exemples des images pré-claculée 14
Figure 10. Image de SolidWorks. 15
Figure 11. Simulating New Architecture. 15
Figure 12. Virtual Hand for V5. 16
Figure 13. Entrée du Musée Fabre, Montpellier 18
Figure 14. 25 portico: The Color and its Reflections June 1996 18
Figure 15. Palais-Royal de Paris les colonnes de Buren 19
Figure 16.a. Chesterfield 1 19
Figure 12.b. Baldwin 2 19
Figure 17.a. Construction de l'œuvre Baldwin 1 20
Figure 13.b. Œuvre final Baldwin 1 20
Figure 18: Cibachrome Turin 2, 1999. Galerie RX, Paris 20
Figure 19. Ecran Alioscopy 40quot; full HD 23
Figure 20. Cheoptics 360 24
Figure 21. Mirage 3D Hologram Generator 24
Figure 22. Imax Dome à Valence 25
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 53
54. Figure 23. Salles Imax 26
Figure 24. Philips a conçu un logiciel, baptisé Wowvx, 26
Figure 25. 3D-Ready DLP® HDTVs 27
Figure 26. Newsight écran 3D utilisé pour le projet 35
Figure 27. P5 Glove, gant utilisé pour le projet 46
Figure 28. Angles de Tait-Bryan 46
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 54
55. ANNEXE 1
MANUEL DE L’UTILISATEUR
Avec l’écran 3D allumé ouvrir le fichier Clock.exe
Au même temps que le programme marche, la fenêtre « OpenGL Enhancer
Options » charge automatiquement, sur cette fenêtre il faut changer les paramètres
de l’écran :
Sur Depth Range il faut mettre Fixed Range et sur Near Plane 0.00
L’Horloge marche avec le gant donné :
Quand le gant et parallèle au sol on voit l’heure de la France et quand on tourne le
gant, les dois vers le sol position perpendiculaire au sol on voit l’heure de la
Colombie il existe un décalage horaire de 7 heures entre les deux zones horaires.
[Recherche sur le relief interactif en temps réel : « Perception » Horloge en relief] Page 55