SlideShare une entreprise Scribd logo
1  sur  195
Télécharger pour lire hors ligne
COURS:FONDEMENT DU MULTIMEDIACOURS:FONDEMENT DU MULTIMEDIA
BEN MEFTEH HAMDIBEN MEFTEH HAMDI
ISET RADES 2012-2013ISET RADES 2012-2013
11
2
PLAN DU COURS
 INTRODUCTION
 NUMERISATION
 PERCEPTION VISUELLE ET SVH (RGB ET SV)
 IMAGE NUMERIQUE
 SON NUMERIQUE
 VIDEO
3
Chapitre 1 :Chapitre 1 :
INTRODUCTIONINTRODUCTION
4
INTRODUCTION
 Qu'est-ce que le multimédia?
 Origine
 Historique
 Intérȇt du multimédia
 Les applications multimédia
5
INTRODUCTION
 Qu'est-ce que le multimédia?
✔ ”C'est l'ouverture de l'informatique à d'autres formes
d'informations que le texte et le graphique.”( le livre blanc du
multimedia )
✔ ”Technique de communication qui tend à rassembler sur un seul
support l'ensemble des moyens audiovisuels (médium de base ,
dessins animés et informatiques (données et programmes ) pour
les diffuser simultanément et de manière interactives”
(dictionnaire du multimédia)
✔ ”Le terme multimédia designe un système intégrant divers média
et autorisant leur utilisation interactive.”(The Design Of an
Extensible Multimedia Library for an OODBMS)
6
INTRODUCTION
✔ Selon la norme AFNOR le terme MULTIMEDIA peut désigner :
- Un assemblage des technologies destinées à gérer les
données, le son et l'image sur un même support. 
-Un Ensemble de techniques permettant d'utiliser des informations de type
texte, image fixe, image animée et son sur un même support.
-Une caractéristique d'un système de traitement, un ordinateur, un logiciel,
etc., permettant l'exploitation simultanée de données numériques, de textes,
d'images fixes ou animées, de sons.
7
INTRODUCTION
 origine
✔ Le multimédia est le carrefour de plusieures domaines :
- audiovisuel
- informatique
- télécommunications
- art graphique,publicité,électronique...
✔ Ce domaine a bénéficier des avancées technologiques
- Technologies de stockage.
- Méthodes de compression/décompression.
- Technologies de transfert de données.
- Accroissement des capacités de traitements des ordinateurs
8
INTRODUCTION
 Historique
✔ Né dans les années 80 :
– Avec le vidéodisque analogique.
– Pour stocker des sons, des images fixes et de la vidéo.
– Premier : Hypercard (Macintosh Apple):
+ Stocker du texte, des images et du son,
+ Les manipuler,
+ Les consulter par navigation.
9
INTRODUCTION
 Historique
✔ 1984-1985 : interface graphique sur les ordinateurs
✔ ~1988 : CD-ROM
✔ 1990 : sons et images sophistiqués
✔ Techniques de compression
✔ Puissance des machines
✔ 1994 : démocratisation d’Internet
✔ 2004 : Web 2.0
✔ …
10
INTRODUCTION
 Intérȇt du multimédia
✔ Nous nous souvenons en moyenne de :
- 10 % de ce que nous lisons
- 20 % de ce que nous entendons
- 30 % de ce que nous voyons.
Et :
- 50 % de ce que nous voyons et entendons en même temps,
- 80 % de ce que nous disons,
- 90 % de ce que nous faisons et disons en même temps.
11
INTRODUCTION
 Les applications :
✔ Applications « grand-public » (loisir, éducation, art et culture,...)
✔ magazine, journaux en ligne
✔ musée interactif
✔ encyclopédies électroniques
✔ livres électroniques
✔ TV et cinéma interactifs
✔ vidéo à la demande
✔ réalité virtuelle
✔ auto-apprentissage
12
INTRODUCTION
 Les applications :
✔ Applications professionnelles (commerce, promotion, formation)
– formation à distance
– vidéoconférences (visioconférence)
– catalogues interactifs
– commerce électronique
– domaine médical (télédiagnostic,dossiers)
– construction (architecte, simulation)
– réservation en ligne
13
Chapitre 2 :Chapitre 2 :
NUMERISATIONNUMERISATION
14
NUMERISATION
 Pourquoi numériser ?
 CAN ET CNA
 Echantillonnage
 Quantification
15
NUMERISATION
 Pourquoi numériser ?
✔ Jusqu'aux années 1960-1970 le traitement des signaux se faisait
par voie purement analogique grâce à des systèmes matériels
électroniques.
✔ Inconvénients :
* Manque de fiabilité des résultats due à l'inévitable dérive et
dispersion des caractéristiques des composants
* Etude difficile et approximative car basée sur des
phénomènes physiques analogues mais pas toujours identiques
aux phénomènes réels.
* Inévitable introduction d'artefacts - parasites - dus au bruit
des systèmes de traitement eux-mêmes. Bruit le plus souvent
indissociable du signal.
16
NUMERISATION
 Pourquoi numériser ?
* Coût des prototypes. Chaque application étant étroitement liée
à son système matériel, toute modification impliquant
pratiquement sa reconstruction matérielle.
* Coûts de construction en série élevés en raison du nombre
considérable d'insertions de composants discrets analogiques à
faible densité d'intégration fonctionnelle : résistances -
condensateurs etc.
✔ L'avénement des machines de calcul numérique à forte densité
d'intégration - microprocesseurs - a permis de substituer le
traitement numérique des grandeurs physiques analogiques à leur
traitement analogique.
17
NUMERISATION
 Pourquoi numériser ?
✔ L'unité centrale, grâce à un programme approprié peut effectuer
des calculs sur les valeurs instantanées d'un signale et en déduire
les corrections souhaitées.
✔ On a transféra les compétences de la physique vers les
mathématiques.
✔ Etapes du traitement numérique :
1. Transformer le signal analogique à traiter en un signal électrique proportionnel :
c'est la capture ou l'acquisition du signal. Les instruments en sont divers :
microphones pour les sons, tubes analyseurs d'images pour la vidéo, capteurs
industriels etc. Cette étape est encore purement analogique.
2. Convertir le signal électrique en une suite de valeurs numériques binaires, seules
compréhensibles par les calculateurs numériques. C'est la conversion analogique-
numérique.
18
NUMERISATION
 Pourquoi numériser ?
3. Lancer le programme de calcul mathématique censé opérer le traitement voulu.
4. Convertir les codes binaires résultant du calcul en un signal électrique pour
ramener le résultat final dans le monde réel analogique. C'est la conversion
numérique-analogique.
5. Reconvertir le signal électrique dans la grandeur physique initiale : haut parleurs,
écrans vidéo, transducteurs industriels.
19
NUMERISATION
 Pourquoi numériser ?
20
NUMERISATION
 CAN et CNA
✔ Un Converstisseur Analogique-Numérique CAN est un circuit
integré qui permet de convertir un signal analogique en un signal
numérique.
✔ Un Convertisseur Numérique-Analogique CNA est un circuit
integré qui fait l'inverse
✔ Les CAN sont plus complexes et plus chères que les CNA et leurs
prix varient selon deux parametres :
- résolution
-la rapidité de conversion
21
NUMERISATION
 CAN et CNA
✔ La figure ci-dessous illustre un CAN de 4 bits :
22
NUMERISATION
 CAN et CNA
✔ La résolution est un nombre qui mesure la finesse de la
conversion
✔ Il dépend du nombre de bits du convertisseur
✔ Plus la résolution est élevée :
➔ plus les échelons sont nombreux pour une même étendue de
valeurs extrêmes
➔ plus les écarts entre valeurs successives seront faibles
➔ plus le signal initial sera fidèlement relevé.
23
NUMERISATION
 CAN et CNA
✔ Résolution relative pour un convertisseur de 8 bits :
1 / 255 = 0,003921 = 0,3921 %
✔ Avec un convertisseur 16 bits :
1/65635 = 15,2590 E-6
✔ Cette définition est également valable pour les convertisseurs
inverses : les CNA
24
NUMERISATION
 Echantillonnage
✔ Si le signal à transmettre est une fonction du temps ; c'est entre
autre le cas du son ou de l'image vidéo.
Combien de fois par seconde devrons-nous relever ses valeurs
sucessives pour le restituer fidèlement ?
✔ L'échantillonnge = la discrétisation dans le temps (sampling en
Anglais).
✔ Nous comprenons bien que si les échantillons sont "rares" le
signal analogique sera grossièrement traduit et donc
grossièrement restitué : on le dira sous-numérisé.
✔ Il semble bien qu'il faudra un nombre "assez élevé"
d'échantilonnages par seconde si l'on souhaite une "bonne
restitution" par la suite.
25
NUMERISATION
 Echantillonnage
✔ Si La figure ci-dessous présente le même signal sinusoïdal
échantillonné 8, puis 4 fois par période.
26
NUMERISATION
 Echantillonnage
✔ Si La figure ci-dessous présente le précédent signal sinusoïdal
échantillonné 3 puis 2 fois par période.
27
NUMERISATION
 Echantillonnage
✔ Le théorème de l'échantillonnage précise la fréquence minimale
d'échantillonnage pour un signal sinusoïdal analogique de
fréquence donnée :
La fréquence d'échantillonnage minimale requise pour
pouvoir ensuite restituer un signal sinusoïdal est le double
de la fréquence de ce signal.
✔ Ce qui donne (à retenir) :
➔ La fréquence d'échantillonnage minimale requise pour pouvoir
ensuite restituer un signal est le double de la fréquence de la plus
haute des harmoniques de ce signal que l'on souhaite restituer (th
de Shannon)
28
NUMERISATION
 Echantillonnage
✔ Exemple :
➔ Le son téléphonique est contenu dans la bande théorique
maximale de 0 - 4 kHz.
L'harmonique la plus élevée a une fréquence de 4 kHz.
Si nous voulons restituer toutes ses harmoniques, il nous faudra
donc prélever 8 000 échantillons par seconde.
(En fait, la bande passante pratique de la boucle terminale
analogique d'abonné est de 300 Hz - 3,5 kHz. Soit 3,2 kHz.)
➔ La musique de qualité exige une bande passante de 20 Hz à 20
kHz.
L'échantillonnage se fera donc à 40 kHz.
L'échantillonnage standard pour les CD est de 44,1 kHz (44 100
échantillons par seconde).
29
NUMERISATION
 Quantification
✔ C'est en Anglais Quantization .
✔ Quantification = discrétisation de l'amplitude .
✔ Il s'agit de terminer le nombre de bits utilisés pour discrétiser la
valeur de chaque échantillon
✔ Exemple : Un son dont la fréquence d'échantillonnage est 44 KHZ
peut ȇtre 8 bits , 16 bits ,...
8 bits → 256 valeurs
On a discrétisé l'intervalle continu [Vmin , Vmax] en 256 valeurs
possibles
30
NUMERISATION
 Quantification
✔ C'est en Anglais Quantization .
✔ Quantification = discrétisation de l'amplitude .
✔ Il s'agit de terminer le nombre de bits utilisés pour discrétiser la
valeur de chaque échantillon
✔ Exemple : Un son dont la fréquence d'échantillonnage est 44 KHZ
peut ȇtre 8 bits , 16 bits ,...
8 bits → 256 valeurs
On a discrétisé l'intervalle continu [Vmin , Vmax] en 256 valeurs
possibles
31
Chapitre 3 :Chapitre 3 :
PERCEPTION VISUELLEPERCEPTION VISUELLE
ET SVH (RGB ETET SVH (RGB ET
SYSTEMES VIRTUELS)SYSTEMES VIRTUELS)
32
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Vision Humaine
 Illusion
 Les espaces de couleur
33
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Vision Humaine
✔ Chez l'humain la perception de la couleur depend de :
➔ la lumière,
➔ des objets reflétant la lumière,
➔ de l'oeil et du cerveau du spectateur
✔ La perception de la couleur varie considérablement en fonction de
l'environnement extérieur.
➔ la même couleur semble différente éclairée par le soleil ou à la
bougie.
➔ la vue humaine s'adapte à la source de lumière, nous permettant
de déterminer qu'il s'agit de la même
34
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Vision Humaine
✔ La perception de la couleur varie également d'un individu à un
autre.
➔ Nous pouvons percevoir une couleur comme étant chaude,
froide, pesante,légère, douce, vive,excitante, relaxante ou
brillante .
✔ Dans tous les cas la perception dépend de l'âge, du sexe, et de
l'environnement de la personne.
➔ Deux personnes n'auront jamais la même impression à propos
d'une seule couleur physique.
➔ Les gens diffèrent même en termes de sensibilité à la gamme de
lumière visible.
35
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Vision Humaine
✔ La lumière est un moyen de médiation de la perception des objets
qu'elle illumine.
➔ Lorsque nos yeux sont stimulés par la lumière reflétée par un
objet, nous percevons et reconnaissons la lumière sous forme
d'une couleur.
✔ C’est une lumière sous forme d’un type spécifique d'onde
électromagnétique :
➔ similaire aux ondes radio utilisées dans la télédiffusion et la
télécommunication.
✔ Les caractéristiques de la lumière changent en fonction de la
longueur des ondes électromagnétiques.
36
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Vision Humaine
✔ Les ondes électromagnétiques couvrent des ondes radio, à la
lumière visible, et jusqu'aux rayons gamma.
✔ L'énergie véhiculée par des ondes, est de l'ordre de 400nm (bleu)-
700 nm (rouge).
✔ La Commission Internationale de l'Eclairage (CIE) définit la
"lumière visible" comme étant constituée des longueurs d'ondes
situées entre 380 nm et 780 nm.
37
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Vision Humaine
✔ Les humains perçoivent deux types de couleurs :
✔ la couleur d'une source dégageant de la lumière s'appelle la
couleur lumière
✔ et la couleur d'un objet illuminé par une source de lumière
s’appelle la couleur d'objet.
38
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Vision Humaine
✔ La lumière en réalité est un mélange de spectre visible de la
lumière visible.
➔ Les humains perçoivent la lumière du soleil de midi
comme étant de la "lumière blanche ".
➔ Cette lumière blanche est en réalité un mélange de spectre de
couleur visible comprise entre 400 nm (bleu) 500 nm (vert) et 700
nm (rouge).
✔ Un objet ne parait coloré que parce que s’il est éclairé par une
source lumineuse.
➔ La couleur que nous percevons comme étant la couleur d’objet
c'est en réalité la lumière reflétée par cet objet.
39
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Vision Humaine
✔ Lorsque la lumière blanche traverse une pomme rouge :
➔ Elle absorbe les spectres de lumière visible comprise entre 400
nm (bleu), 500 nm (vert).
➔ Elle réfléchie que le spectre visible de longueur d’onde 700 nm
(rouge).
➔ Quelle est la couleur d’une pomme la nuit en absence de lumière ?
40
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Vision Humaine
✔ L'oeil est l'organe de base de la vision qui comporte un ensemble
d'éléments destinés à:
➔ recevoir la lumière reflétée sur un objet,
➔ former l'image des objets perçus,
➔ traiter les informations recueillies.
41
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Vision Humaine
✔ Lorsque la lumière reflétée sur un objet entre dans l'oeil humain,
elle réagit avec les photorécepteurs (nerfs optiques) de la rétine
qui sont :
➔ Les bâtonnets : sensibles à la lumière et à l'obscurité
➔ Les cônes : sensibles aux longueurs d'ondes du rouge, du vert et
du bleu.
✔ La rétine envoie ensuite des signaux via
le nerf optique jusqu'au cerveau.
42
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Vision Humaine
✔ Les bâtonnets :
➔ sont responsables de la vision nocturne et possèdent un maximum de
sensibilité vers 510 nm.
➔ Leur sensibilité est liée à un colorant, qui blanchit à la lumière du jour,
expliquant par là leur insensibilité pendant la nuit.
➔ Les bâtonnets ne permettent pas de déterminer les couleurs.
✔ Les cônes :
➔ fournissent une réponse chromatique (couleur), grâce à des pigments
sensibles aux longueurs d'ondes du rouge, du vert et du bleu.
43
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Vision Humaine
44
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Vision Humaine
✔ Le mode de fonctionnement des nerfs optiques explique bien la
perception de la couleur :
➔ L'absence de perception de la couleur ou le daltonisme se
produisent lorsque la fonction de ces nerfs est affectée.
➔ La variation de la perception de la couleur est déterminée par la
variation du fonctionnement de ces nerfs optiques :
- Certains animaux ne peuvent voir dans l'obscurité, alors que
d'autres voient très bien dans ces conditions.
-Les chiens et les chats ne perçoivent pas les couleurs.
45
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Illusion
✔ Le système visuel humain sert souvent de référence. Cependant,
il ne constitue pas un système parfait et il peut être facilement
piégé comme le montrent les exemples suivants :
46
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Illusion
47
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Illusion
48
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Les espaces de couleur :
✔ On distingue deux types de synthèses de couleurs :
➔ Synthèse addictive
➔ Synthèse soustractive
✔ Systhèse addictive :
➔ Combinaison de trois faisceaux lumineux de couleurs rouge, verte et bleue à
proportions variées pour produire la plus part des couleurs
➔ Cette méthode est appelée "additive" parce que la somme de ces trois
couleurs de base (à intensité égale) donne du blanc.
➔ On nomme parfois les couleurs rouge,verte et bleue les primaires addictives
49
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Les espaces de couleur :
✔ Systhèse soustractive :
➔ Uilisation de trois couleur de base le cyan, le magenta et le jaune
pour supprimer certaines couleurs de la couleur blanche et
obtenir une couleur souhaitée.
➔ chacun des trois couleurs de base absorbe les ondes d'une
primaire additive (le rouge, le vert ou le bleu) et réfléchit les
ondes des deux autres.
- le jaune absorbe les ondes bleues et réfléchit les ondes rouges et
vertes.
- le magenta réfléchit les ondes rouges et bleues au détriment des
ondes vertes.
➔ On nomme parfois les couleurs cyan,magenta et jaune les
primaires soustractive.
50
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Les espaces de couleur :
✔ On appelle espace de couleurs la repprésentation mathématique
d'un ennsemble de couleurs .
✔ Il en existe plusieurs espaces de couleurs , parmi lesquels les plus
connus sont :
➔ Le codage RGB
➔ Le codage CMYK
➔ Le codage HSV
➔ Le codage CIE
➔ Le codage YIV
➔ Le codage YCrCb
➔ Le codage YIQ
51
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Les espaces de couleur :
✔ Le codage RGB :
➔ Le codage RGB mis au point par la Commission Internationale de
l'Eclairage (CIE) est basé sur la synthèse addictive.
➔ Il estt utilisé par l'ecran d'un ordinateur ou de télévision.
✔ Le codage CMYK :
➔ Il est basé sur la synthèse soustractive (Cyan , Magenta , Jaune et
noir pur ou en français CMJN ).
➔ Il est utilisé pour produire la couleur en imprimerie .
52
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Les espaces de couleur :
53
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Les espaces de couleur :
✔ Le codage HSV :
➔ Le modèle HSV (Hue, Saturation, value, ou en français TSV), est
un modèle de représentation proche de la perception humaine mis
au point pour permettre une gestion interactive rapide d'une
couleur.
➔ Contrairement au modèle RGB, le modèle HSV plus facile à
utiliser lors du réglage ou l'éclaircissement d’une couleur.
➔ Le modèle HSV consiste à décomposer la couleur selon des
critères physiologiques :
- La teinte (en anglais Hue), correspondant à la perception de la
couleur (mauve ou orange, etc.),
- La saturation, décrivant la pureté de la couleur, c'est-à-dire son
caractère vif ou terne (neuf ou délavé),
54
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Les espaces de couleur :
✔ Le codage HSV :
- la valeur, indiquant la quantité de lumière de la couleur, c'est-à-
dire son aspect clair ou sombre.
➔ La teinte décrit la nuance de couleur et où cette couleur se trouve
dans le spectre de couleur Rouge, jaune, etc .
➔ La saturation est un pourcentage qui s'étend de 0 à 100. Un rouge
pur qui n'a aucun blanc est 100% saturé.
➔ La valeur, comme la Saturation, est un pourcentage qui va de 0 à
100. Quand la teinte est rouge et la valeur est élevée, la couleur
semble brillante/lumineux. Quand la valeur est basse, elle semble
foncée.
55
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Les espaces de couleur :
✔ Le codage CIE :
➔ Enfin en 1976, la CIE développe le modèle colorimétrique La*b*
(aussi connu sous le nom de CIE Lab), dans lequel une couleur est
repérée par trois valeurs :
- L, la luminance, exprimée en pourcentage (0 pour le noir à 100
pour le blanc)
- a et b deux gammes de couleur allant respectivement du vert au
rouge et du bleu au jaune avec des valeurs allant de -120 à +120.
➔ Le mode Lab couvre l'intégralité du spectre visible par l'oeil
humain et le représente de manière uniforme.
➔ PhotoShop utilisent ce mode pour passer d'un modèle de
représentation à un autre.
56
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Les espaces de couleur :
✔ Le codage CIE :
57
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Les espaces de couleur :
✔ Le codage YIV :
➔ Il s'agit du format utilisé dans le standard allemand PAL (Phase
Alternation by Line)
➔ Le paramètre Y représente la luminance (c'est-à-dire l'information
en noir et blanc).
➔ U et V permettent de représenter la chrominance, c'est-à-dire
l'information sur la couleur.
➔ Y = 0,30RE + 0,59GE + 0,11BE
➔ U = 0,493(BE - Y)
➔ V = 0,877(RE - Y)
58
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Les espaces de couleur :
✔ Le codage YCrCb :
➔ Il s'agit du format utilisé dans le standard français SECAM
(SEquentiel Couleur A Mémoire).
➔ Le paramètre Y représente la luminance (c'est-à-dire l'information
en noir et blanc).
➔ Cr et Cb permettent de représenter la chrominance, c'est-à-dire
l'information sur la couleur.
➔ Y = 0,30RE + 0,59GE + 0,11BE
➔ Cr = -1.9(RE - Y)
➔ Cb = 1,5(BE - Y)
59
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Les espaces de couleur :
✔ Le codage YIQ :
➔ Il s'agit du format utilisé dans le standard NTSC (National
Television Standards Committee)
➔ Le paramètre Y représente la luminance (c'est-à-dire l'information
en noir et blanc).
➔ I et Q permettent de représenter la chrominance, c'est-à-dire
l'information sur la couleur.
➔ Y = 0,30RF + 0,59GF + 0,11BF
➔ I = 0,74(RF - Y) - 0,27(BF – Y)
➔ Q = 0,48(RF - Y) + 0,41(BF - Y
60
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
 Les espaces de couleur :
✔ Les primaires et le blanc de référence utilisés dans les téléviseurs
dépendent des normes imposées par les standards de chaque
pays. Le standard NTSC utilise l’illuminant C comme blanc de
référence alors que les standards PAL et SECAM utilisent
l’illuminant D65.
✔ Les téléviseurs américains répondent à la norme NTSC qui
utilise les primaires [RF], [GF], [BF] fixées par la FCC (Federal
Communications Commission).
✔ Les téléviseurs européens répondent à la norme allemande PAL
fixée par l’EBU (European Broadcasting Union ou Union
Européenne de Radio-télévision (UER)), ou à la norme française
SECAM.
61
Chapitre 4 :Chapitre 4 :
IMAGE NUMERIQUEIMAGE NUMERIQUE
62
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Définitions prémliminaires
 Image Matricielle
 Numérisation
63
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Définitions préliminaires :
✔ Une image : c'est une représentation bi-dimentionnelle (2-D)
d'une scène tri-dimentionnelle (3-D)
64
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Définitions préliminaires :
✔ Une image numérique est une représentation approchée adaptée
à des traitements informatiques .En fait , toutes les données
correspondant aux informations contenues dans l'image sont
structurées d'une certaine façon afin de permettre leur stockage.
✔ Une image numérique en elle même est en fait un concept tout à
fait abstrait :
➔ manipulation de données numériques.
➔ ces données ne trouve une signification à nos yeux qu'à
la visualisation lorsque l'on utilise un logiciel adéquat.
65
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Définitions préliminaires :
✔ On distingue deux types d'images numériques :
➔ Images matricielles
➔ Images vectorielles
✔ Une image matricielle est en faite une matrice de données
numériques dont chaque position (x,y) associe une couleur afin de
visualiser l'image à l'ecran.
✔ Une image vectorielle est une représentation des données de
l'images par des formes géométriques qui vont pouvoir être
décrites d'un point de vue mathématique.
66
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Définitions préliminaires :
✔ Une image vectorielle est indépendante du facteur échelle car elle
est définie par des coordonnés numériques et des formules
mathématiques.
Zoom
67
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Définitions préliminaires :
✔ Etant définie par une dimension fixe et d'un nombre de couleurs
fixe , une image matricielle est en fait dépendante du facteur
échelle dont le changement peut provoquer par suite une perte de
qualité .
Zoom
68
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Définitions préliminaires :
✔ Traitement d'image : ensemble de méthodes et de techniques
permettant de :
➔ modifier l'image pour améliorer son aspect visuel,
➔ la préparer à la transmission par voie télématique,
➔ la préparer à l'extraction d'une mesure,
➔ extraire des informations pertinentes.
69
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ Les images matricielles sont constituées de pixels de différentes
couleurs disposés en lignes et en colonnes.
✔ Elles sont définies par leurs dimensions en nombre de pixels ainsi
que par le nombre de couleurs possibles.
✔ Chaque pixel possède une adresse numérique et est stocké dans
une zone de mémoire appelée matrice.
✔ Les images matricielles dépendent de la résolution :
➔ Elles comportent un nombre fixe de pixels qui représentent les données
de l'image.
70
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ La représentation discrète est
➔ Bidimentionnelle pour les images
[1..L] x [1..C] -> [1,M]p (L lignes, C colonnes)
➔ Tridimentionnelle pour les vidéos
[1..L] x [1..C] x [1..T] -> [1,M]p (vidéo de T im.)
L : nombre de lignes
C : nombre de colonnes
[1,M]p :M+1 valeurs d'intensité , sur un espace a p dimensions
(p=nombre de plans )
71
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ Les pixels sont les plus petits éléments employés par les
moniteurs et imprimantes d'ordinateur pour représenter des
caractères, des graphiques et des images.
✔ Une image numérique est formée d'une grille de petits carrés
appelés pixels.
✔ Un pixel est :
➔ une unité de base de l''image
➔ un pas de discrétisation
72
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ La dynamique d'une image correspond à l'étendu de la gamme de
couleurs que peuvent prendre les pixels image.
✔ La dynamique d’une image est liée au nombre d'octets utilisés
pour stocker l'information couleurs.
✔ La dynamique de l’image détermine si une image est :
➔ binaire,
➔ en niveau de gris,
➔ en fausses couleurs (couleurs indexées),
➔ Ou en couleurs « vrai ».
73
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ Une image binaire est une image ayant deux couleurs possibles
généralement noir est blanc.
✔ Dans ces images, un seul bit suffit à représenter chaque pixel
(1=blanc ou 0=noir).
✔ Si I est une image binaire, alors :
➔ (p,M) = (1,1)
➔ p=1 à un seul plan = une seule matrice.
➔ M=1 à m+1 valeur d’intensité.
74
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ Une image en niveaux de gris est appelée dans le langage
courant image en noir et blanc.
✔ Dans ce type d'image , chaque pixel est codé sur 8 bits et contient
un seul nombre qui correspond à la nuance du gris de l'image.
✔ Les nuances de gris couvrent tout le spectre du blanc au noir, en
une échelle de 256 nuances.
✔ Si I est une image en niveaux de gris alors (p,M)=(1,255).
75
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
255
0
76
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ Les images en couleur indexé sont créées à l'aide d'une palette
limitée attachée à cette image et qui comprend n couleurs
différentes.
➔ N=512;
➔ N=256;
✔ La donnée correspondant à chaque pixel consiste en un indice qui
pointe vers une couleur précise dans la palette.
✔ Ce format ne convient pas à des images en couleurs réelles, à
cause du nombre restreint de couleurs et de palettes différentes
qu'il est possible d'utiliser.
✔ Si I est une image en couleur indexée, (p,M) = (1,n-1).
➔ n = taille de l'indexe
77
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
Image 1
Image 2
Palette 1
(256 couleurs)
Palette 2
(256 couleurs)
78
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ Une l'image en « vrai couleur » se décompose en trois plans
fondamentaux que sont le Rouge, le Vert et le Bleu.
✔ Il s'agit d'une appellation trompeuse :
➔ on est dans un monde numérique (discret, fini) qui ne peut pas
rendre compte de la réalité (infinie).
✔ Une image couleur comporte pour chaque pixel une information
sur sa composition en Rouge, Vert et Bleu :
➔ toute couleur peut, être obtenue par un mélange de ces 3
couleurs fondamentales.
➔ Chacune de ces couleurs fondamentales RVB dispose de 256
nuances possibles soit 256*256*256 possibilités= 16 millions de
possibilités.
79
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ Si I est une image couleur, alors (p,M) = (3,255)
Une image
couleur
Les trois plans RVB
Chaque plan a 256 nuances de couleurs
Matrice R Matrice V Matrice B
80
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
Taille de l ’image = Largeur × Hauteur (octets)
640 × 480 octets = 307.200 octets
81
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ La résolution est une mesure de la clarté ou du niveau de détail et
de finesse d'une image numérique.
✔ La définition complète du terme résolution recouvre les notions
de résolution spatiale et de résolution en luminance.
✔ Dans l'usage courant, le terme résolution est souvent employé
pour parler de la résolution spatiale uniquement.
✔ Plus la résolution,est grande, plus l'image est détaillée, et plus le
fichier correspondant est volumineux.
✔ la résolution spatiale s'exprime en pixels au pouce et souvent
abrégé « dpi » pour dots per inch.
82
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
+Résolutionspatiale-
83
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ La résolution en luminance, ou nombre de bits, se rapporte à
l'échelle de gris ou aux couleurs possibles de chaque pixel.
84
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ La résolution en luminance, détermine le nombre de nuances ou
de couleurs possibles pour chaque pixel.
✔ Plus le nombre de bits est grand, plus le nombre de couleurs
possibles est élevé.
+ Résolution en luminance -
vraie couleur
24 bits
Fausse couleur
8 bits
en niveau de
gris
24 bits
binaire
2bits
85
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
+ Résolution en luminance -
86
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ Un histogramme est un graphique statistique permettant de
représenter la distribution des intensités des pixels d'une image,
c'est-à-dire le nombre de pixels pour chaque intensité lumineuse.
✔
Par convention un histogramme représente le niveau d'intensité en
abscisse en allant du plus foncé (à gauche) au plus clair (à droite).
C’est la fréquence d’apparition d’une valeur de pixel
Histo(i)=Card{Pixel(x,y)=i}
87
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ Exemple d'histogramme d’une image au niveau de gris:
dynamique [0..255]
88
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ Exemple d'histogramme d’une image au niveau de gris:
dynamique [0..255]
89
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ Pour les images en vrai couleur plusieurs histogrammes sont
nécessaires. Par exemple pour une image codée en RGB :
➔ un histogramme représentant la distribution de la luminance,
➔ trois histogrammes représentant respectivement la distribution
des valeurs respectives des composantes rouges, bleues et vertes.
90
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ Les contours sont les lieux de variations significatives de
l'information au niveaux de gris.
✔ Un contour est une transition marquée entre deux régions ayant
chacune une luminosité distincte.
Image au niveau de gris Image contour
91
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ Les contours sont les lieux de variations significatives de
l'information au niveaux de gris.
✔ Une texture est une répétition spatiale :
➔ d'un même motif
➔ dans différentes directions de l'espace.
✔ La texture décrit :
➔ un aspect homogène de la surface,
➔ une information visuelle qui permet de la décrire qualitativement
a l'aide des adj. : grossière, fine, lisse, tachetée, granuleuse,
marbrée, régulière ou irrégulière
92
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
bois bulles canevas lierre
herbe laine eau sable
93
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ La luminance (la brillance) est la quantité d’énergie (lumière)
reçue par unité de surface (pixel) nommé dans la pratique
Intensité lumineuse I.
✔ Pour augmenter la luminosité d’une image deux solutions
possibles :
➔
on ajoute à chacun des pixels de l'image une même constante n dans les
différentes composantes de couleurs R, G et B.
➔
on calcul la composante luminosité f(x,y) de l’image, puis pour chaque
pixel de f(x,y) on ajoute une constante n.
I=
∬
yx
I x,ydxdy
∬
yx
dxdy
=
1
LC
∑
x=0
L−1
∑
y=0
C−1
f x,y
94
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
n=0 n=+80n=-80
95
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ Le contraste est une mesure relative aux différences de
luminosités dans les images.
2
1
0
1
0
)),((
1
Iyxf
NM
C
N
x
M
y
−= ∑∑
−
=
−
=
96
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ Un format d'image comprend en général un en-tête qui contient
des données sur l'image (taille de l'image en pixels par exemple)
suivie des données de l'image.
✔ Il existe plusieurs formats d'image :
➔ Bmp
➔ Jpg
➔ Gif
➔ Png
➔ Tiff
➔ ...
97
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ Caractéristiques intrinsèques à un format :
➔ Le statut par rapport aux brevets : La plupart des formats sont
libres mais certains sont ”propriétaires”, comme le format GIF.
➔ Le nombre de couleurs supportées
➔ La compression des données :
- On distinguera les compressions sans pertes, qui compactent
l’information des intensités sans changer leur valeurs, et les
compressions avec pertes, comme JPEG, o`u le contenu est altéré.
➔ Transparence : La caractéristique de transparence permet de
spécifier que l’une des couleurs de la palette peut être ignorée
lors de l’affichage de l’image sur le moniteur (Par extension :
alpha chanel).
98
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ Caractéristiques intrinsèques à un format :
➔ Entrelaçage : C’est un mécanisme qui permet de faire apparaître
plus rapidement les images à l’écran, en affichant une version
basse résolution raffinée au fur et à mesure du chargement.
➔ Animation : Certains formats permettent de stocker dans le même
fichier plusieurs images qui représentent une animation. C’est le
cas du format GIF.Des navigateurs, comme Netscape, sont alors
capables d’afficher ce fichiers comme une séquence jouée.
➔ Les usages ! ! internet ? archivage ? calcul scientifique ?
99
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ JPEG (Joint Photo Expert Group):
➔ Ce format est la représentation d'une norme ISO. Statut par
rapport aux brevets .
➔ Ce format permet une représentation en vraies couleurs (16
millions).
➔ La compression utilisée est la compression avec perte avec un taux
qui varie entre 1% (qualité la meilleure) et 99 %(qualité moins
bonne).
➔ Ce format ne supporte pas la transparence car il est basé sur une
compression avec perte.
➔ Ce format supporte l'entrelaçage.
100
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ JPEG (Joint Photo Expert Group):
➔ Ce format ne supporte pas les animations.
➔ Il est utilisé dans le cadre de la représentation de prédilection: les
images "naturelles" avec des grands dégradés de couleurs
(transition douce de couleurs).
➔ Il est utilisé au niveau de l'internet .
101
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ JPEG 2000 (Joint Photo Expert Group 2000):
➔ Ce format permet , dans une zone définie, des manipulations
géométriques tels que la rotation, la permutation du paysage par
rapport au portait
➔ Permet de définir une ou plusieurs zones d'une image afin d'en
préserver la qualité (dégrader les régions les moins stratégiques de
l'image tout en gardant intact la zone sélectionnée).
➔ Permet d'incorporer des méta-données.
102
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ JPEG 2000 (Joint Photo Expert Group 2000)
➔ La compression est basée sur un système d'ondelette qui permet
une compression plus importante avec une perte de qualité
imperceptible à l'oeil nu).
➔ Ce format permet une représentation en vraies couleurs (16
millions) et ne gère pas la transparence
➔ Usage : internet ...
103
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ PNG (Portable Network Graphics)
➔ Ce format est l'émanation de recommandations du consortium W3
(1996).
➔ Il supporte dews images vraies couleurs ,niveaux de gris et 8 bits
indexées.
➔ Il est basé sur une compression sans perte réputée par son
efficacité.
➔ Il supporte la transparence .
➔ L'affichage entrelacé est possible aussi .
➔ Il est utilisé partout et surtout internet et ne supporte pas les
animations.
104
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ GIF (Compuserve Graphics)
➔ Ce format supporte 256 couleurs avec palette.
➔ La compression est sans perte mais dépend de plusieurs facteurs :
- l'existence de zones homogènes.
- de l'orientation de l'image: la lecture des données de l'image se
fait en commençant par le pixel en haut et à gauche et se fait en
ligne.
105
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ GIF (Compuserve Graphics)
➔ Ce format supporte la transparense.
➔ L'entrelaçage diffère selon le navigateur :Ligne 1,9,17 puis lignes  5,
13 puis ligne 3, 7, 11, 15 et enfin ligne 2, 4, 6, 8, 10, 12, 14, 16 .
➔ Les animations sont possibles.
➔ Ce format est utilisé au niveau des logos et dans tout ce qui contient des
peu de nuances de couleurs et avec une transition brusque.
➔ Il est utilisé aussi au niveau d'internet.
106
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
✔ TIFF (TAG IMAGE FILE FORMAT)
➔ Ce format supporte 16 millions de couleurs.
➔ multiples versions qui rendent sa diffusion difficile!
➔ Il utilise une compression sans ou avec perte(au choix).
➔ Il ne supporte ni la transparençe ni l'entrelaçage.
➔ Ce format ne supporte pas les animations.
➔ Utilisation possible partout sauf sur internet car ill est tres
volumineux .
107
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Image Matricielle :
108
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ La numérisation d'une image est obtenue par l'intermédiaire d'un
capteur :
➔ Le signal lumineux est transmis à une cellule photo-sensible
appelée CCD (Charged Coupled Device) qui transforme l'énergie
(lumière) en une série d'impulsions électriques.
✔ et aussi d'un numériseur (carte de numérisation intégrée ou non au
capteur) qui transforment un signal optique en un signal
numérique:
➔ Le signal électrique est repris par un convertisseur analogique-
digital qui transforme les données continues en données
numériques codées sur 1, 8, 16 ou 24 bits.
➔
Le codage utilisé définit le type d'images (noir et blanc, niveaux de gris ou
couleur).
109
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ L'obtention d'une image numérique nécessite deux processus :
➔ Echantillonnage spatial de l'image (sampling) :
- Discrétisation dans le temps :Découpage en « tranche » (pavage) :
définition de la résolution spatiale de l’image (nombre pixels en
horizontal et en vertical).
➔ Quantification du niveau de luminance (quantization):
-Définition de la résolution de luminance :-Définition de la résolution de luminance :
-Choix de la précision de représentation de chaque pixel-Choix de la précision de représentation de chaque pixel.
-Précision du nombre de bits utilisé pour le codage de chaque-Précision du nombre de bits utilisé pour le codage de chaque
échantillon (pixel).échantillon (pixel).
110
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
111
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
Scène Echantillonnage
1 Pixel (3bits)
1 1 0
0
1
2
3
4
5
6
7
Pixel
Quantification
112
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ Une image estt une matrice M*N
✔ Une image est une fonction F(x,y)
113
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
Image 1024x1024, codée sur 8 bits, sous-
échantillonnée jusqu’à une taille de 32x32 pixels.
Le nombre de niveau de gris est gardé à 256.
114
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
a)1024x1024x8 b)512x512 ré-échantillonné en 1024*1024 par duplication
de lignes et . c jusqu’à f)images 256x256, 128x128, 64x64,
32x32 sous échantillonnées à partir de a.
115
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ Le PAVAGE :
➔ Définition : Une abstraction mathématique de présentation des pixels sous
forme d’une décomposition régulière dans un plan euclidien avec une
même forme élémentaire.
➔ Principe : Lors du processus de digitalisation, le signal lumineux
transmis par les capteur (CCD) est projeté dans un espace euclidien
partitionner de façon régulière.
➔ Une répartition sous forme d’un ensemble connexe de points
appelés pixels de telle sorte que deux pixels voisins ne peuvent
s'intersectée que sur leur bord, et que l'ensemble des pixels
recouvre le plan.
116
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ Les images sont habituellement plaquée sur des pavés de type
polygones réguliers :
✗ Triangulaire,
✗ Carré,
✗ Hexagonal.
117
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ A tout pavage du plan euclidien est associé un maillage.
✔ Un maillage est un graphe non-orienté dont les nœuds sont les
points centres des pavés qui se touchent par un coté.
118
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ Il y a une dualité entre maillage et pavage :
➔ à un pavage carré correspond un maillage carré.
➔ au pavage hexagonal correspond une maille triangulaire.
➔ au pavage triangulaire est associé le maillage hexagonal.
✔ Le maillage est obtenu de manière implicite par échantillonnage
de l’image analogique lors de la numérisation.
✔ La plupart des capteurs échantillonne en maillage carré.
119
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ A Tout pixel se code comme un couple (i,j) d'entiers.
➔ Dans un maillage carré, tout pixel a 2 types de voisins, à savoir ses
4 voisins selon les axes, et ses 4 voisins selon les diagonales. Deux
pixels p et q sont dits :
✗ 4-adjacents s'ils sont voisins suivant un axe.
✗ 8-adjacents s'ils sont voisins suivant un axe ou une diagonale.
120
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ Etant donné un pixel (i,j), en maillage carré les pixels 4-adjacents à
(i,j) sont :
➔ (i+1,j),
➔ (i-1,j),
➔ (i,j+1),
➔ et (i,j-1)
✔ Pour les 8-adjacences les mêmes, plus (i+1,j+1), (i+1,j-1), (i-1,j+1).
(i,j)
(i,j)
(i+1,j+1)
(i-1,j-1)
121
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ Dans le cas d’un maillage carré le pixel (i,j) est 4-adjacent à (i',j') si
et seulement si :|i-i'| + |j-j'| = 1
✔ (i,j) est 8-adjacent à (i',j') si et seulement si :max(|i-i'|,|j-j'|) = 1
(i,j)
(i,j-1)
(i-1,j)
(i,j+1)
(i+1,j)
122
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ Dans une configuration de maillage hexagonal le pixel central a 6
voisins tous situés à égale distance de lui.
✔ NB. Un passage d'une maille carrée à une maille hexagonale, est
possible grâce à un simple calcul, effectué par certains logiciels
d'analyse d'images.
123
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ Soit k = nombre d’adjacence choisie (k=4 ou k=8 ou k=6) :
✔ Un k-chemin du pixel p au pixel q est une suite x0
, ..., xn
de
pixels tels que :
➔ x0
= p et xn
= q (où n est un entier naturel)
➔ pour i = 0, ..., n-1, xi
est k-adjacent à xi+1
➔ n est la longueur du chemin
✔ Un chemin de longueur n comporte donc n+1 pixels et n transitions
124
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ La k-distance dk
(p,q) entre 2 pixels p et q est la longueur min d'un
k-chemin de p à q.
✔ Il s'agit bien d'une distance dans le sens qu'elle vérifie les axiomes
suivants :
➔ dk
(p,p) = 0, (identité ),
➔ pour p différent de q on a dk
(p,q) > 0 (positivité),
➔ dk
(p,q) = dk
(q,p) (symétrie)
➔ dk
(p,r) est plus petit ou égal à dk
(p,q) + dk
(q,r) (inégalité
triangulaire).
125
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ Dans le cas du maillage carré il est facile de voir que si p
et q sont de coordonnées (i,j) et (i',j') respectivement,
alors :
➔
Distance de MANATHAN
d4
(p,q) = |i-i'| + |j-j'|
➔
Distance de l’ECHIQUIER
d8
(p,q) = max(|i-i'|,|j-j'|)
➔
Distance EUCLIDIENNE
(p,q) = [(xp - xq)2
+ (yp - yq)2
]1/2
126
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ Dans une configuration de maillage carré le pixel central a 8
voisin :
➔ 4 directs, tous situés à la distance d1 du pixel central.
➔ 4 indirects, tous situés à la distance
d2 = d1 du pixel central.
d2
d1
2
127
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ Changement d'échelle : Approximation d’une fonction sur in
intervalle donné.
➔ Intercalation dans une suite de valeurs connu (données d’image)
une ou plusieurs valeurs calculées par une fonction.
✔ Exemple de changement d’échelle : Zoom +
✔ Deux types d’interpolation :
➔ Interpolation du plus proche voisin par Réplication des Pixels :
Copie chaque colonne et chaque ligne.
➔ Interpolation avec les 4 voisins
✗ Bilinéaire
✗ Bicubique
✗ Sinc
128
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ Zoom par réplication :

Zoom
129
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ Zoom par interpolation:

130
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
Interpolation linéaire
131
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
Interpolation linéaire
P(x’,y’) = (1-dx) (1-dy) P(x,y) + (dx)
(1-dy) P(x+1,y) + (1-dx)(dy) P(x,y+1)
+ (Px) (Py) P(x+1,y+1)
132
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
Interpolation bicubique
133
IMAGE NUMERIQUEIMAGE NUMERIQUE
 Numérisation :
✔ Bruit : phénomène de brusque variation de l’intensité d’un pixel
par rapport à ses voisins.
✔ Provenance :
➔ l’éclairage,
➔ l’objet,
➔ La transmission,
➔ l’optique de la caméra,
➔ Le capteur CCD,
➔ l’échantillonnage,
➔ Le stockage de l’image
134
Chapitre 4 :Chapitre 4 :
SON NUMERIQUESON NUMERIQUE
135
SON NUMERIQUESON NUMERIQUE
 Définitions préliminaires
 Oreille et cerveau humain
 Numérisation
 Compression
 Principaux formats
136
SON NUMERIQUESON NUMERIQUE
 Définitions préliminaires
✔ Qu’est-ce que le son ?
nous désignons à la fois le mot son :
➔ un phénomène physique vibratoire complexe
➔ la sensation auditive engendrée par ce phénomène
✔ Qu’est-ce que le phénomène vibratoire ?
un son naît (en général) de la déformation d’un corps. Cette déformation
engendre une vibration mécanique qui va à son tour déformer le milieu dans
lequel se trouve le corps. Ainsi, la vibration va se propager de proche en
proche, selon une onde dite sonore ou acoustique.
➔ Exemple :
la membrane d’un instrument à percussion déformée par la choc du maillet ou la
corde d’un violon frottée par l’archet.
137
SON NUMERIQUESON NUMERIQUE
 Définitions préliminaires
✔ Transmission du son
➔ La vibration de l’air constitue un phénomène périodique car elle
se reproduit identiquement à elle-même au bout d’un certain
temps (ou période).
➔ La période (T, exprimée en secondes) désigne le temps nécessaire à un
cycle vibratoire complet, c’est-à-dire une oscillation.
➔ La fréquence (f, exprimée en Hertz) définit le nombre de périodes par unité
de temps : il s’agit du nombre d’oscillations par seconde.
✗ Relation entre T et f :
la fréquence est l’inverse de la période
plus la période est petite, plus la fréquence est grande
f (en Hz) = 1 / T (en secondes)
138
SON NUMERIQUESON NUMERIQUE
 Définitions préliminaires
➔ Exemple : propagation d’une onde provoquée par la chute d’une
pierre lancée sur un plan d’eau
Temps (s)
amplitude
0
+A
- A
période
Fréquence (= 3Hz)
1 s
139
SON NUMERIQUESON NUMERIQUE
 Définitions préliminaires
✔ Phénomènes sonores
➔ On considère généralement que la perception auditive humaine
s’étale (dans le meilleur des cas) entre 20 Hz et 20 kHz.
➔ La fréquence est un paramètre essentiel des phénomènes sonores car c’est
d’elle que dépend la hauteur du son perçue :
➔ Exemples :
✗ la fréquence de 20 kHz (= 20 000 périodes/s) est considérée comme la
limite de la perception humaine dans l’extrême aigu, mais cette perception
des fréquences élevées se dégrade avec l’âge et la fatigue auditive
✗ La fréquence de 20 Hz (= 20 périodes/s) est quant à elle considérée comme
la limite inférieure des la perception humaine dans l’extrême grave
➔ Cette fourchette de fréquences définit donc la bande de fréquences ou
bande passante utile d’un système de reproduction sonore de haute qualité
qui doit s’efforcer de reproduire le plus linéairement possible
140
SON NUMERIQUESON NUMERIQUE
 Définitions préliminaires
✔ Exemple (bandes passantes)
Système
Bandes passante(HZ)
Téléphone 300 – 4 000
Radio AM 50 – 6 000
Radio FM 50 – 15 000
Magnétophone K7 40 – 15 000
CD audio et
matériel
professionnel
20 – 20 000
141
SON NUMERIQUESON NUMERIQUE
 Définitions préliminaires
✔ Signal sonore
➔ On représente fréquemment de manière simplifiée un signal
sonore par une courbe sinusoïdale (ou harmonique en
sinus/cosinus)
➔ En fait, une telle sinusoïde ne représenterait qu’un son dit pur défini par une
seule fréquence : or, les sons audible ne sont pas purs, ie. complexes et
constitués d’une combinaison de fréquences
➔ En effet, à la fréquence fondamentale qui définit la hauteur sonore viennent
s’ajouter une série de signaux harmoniques
➔ C’est à J. Fourrier qu’il revient d’avoir démontré mathématiquement au
début du XIXe siècle que tout phénomène périodique pouvait être
décomposé en une série de sinusoïdes élémentaires dont les fréquences
sont des multiples entiers de la fréquence la plus grave, dite fondamentale.
142
SON NUMERIQUESON NUMERIQUE
 Définitions préliminaires
✔ Signal sonore
➔ Exemple :
Appuyer la touche d’un piano correspondant au La3
, nous obtenons un son
complexe constitué par l’addition à la fréquence fondamentale (440 Hz) et à
des amplitudes variables de fréquences dites harmoniques à des valeurs
multiples (x2, x3, …)
➔ La Conférence Internationale de Londres en 1953 a fixé la hauteur absolue
du La3
à 440 Hz, pour servir de base à l’accord des instruments (musiques
ou sonores).
143
SON NUMERIQUESON NUMERIQUE
 Oreille et cerveau humain
✔ Le nombre et l’amplitude des diverses fréquences harmoniques
sont spécifiques à chaque source sonore et déterminent le timbre
propre de cette source.
✔ Ce sont donc les harmoniques caractéristiques de chaque source qui
permettent à l’oreille et au cerveau humains de distinguer et de reconnaître
des sources sonores différentes :
➔ Le timbre d’une voix émettant à une fréquence fondamentale de 400 Hz
sera perçu comme différent d’une autre voix émettant à la même fréquence.
➔ Le son d’une guitare ne sera pas confondu avec celui d’un piano, même si
les deux instruments jouent la même séquence de notes musicales
144
SON NUMERIQUESON NUMERIQUE
 Oreille et cerveau humain
✔ L'oreille absolue, par opposition à l'oreille relative, est la faculté
pour un homme de pouvoir identifier une note musicale en
l’absence de référence.
➔ En occident seule 1 personne sur 10 000 en serait dotée.
✔ En psychologie, Alexei Leontiev a émis l'hypothèse, à partir de
travaux réalisés auprès de blessés de la seconde guerre mondiale,
que l'oreille absolue pouvait s'acquérir en combinant un
apprentissage vocal et auditif :
➔ l'effort musculaire réalisé par l'appareil phonatoire au moment de
la reproduction d'un son est mémorisé et, quand un son est
entendu, la personne tente alors de reproduire mentalement
l'effort nécessaire pour l'émettre, ce qui lui permet ensuite de
dire quelle est sa hauteur.
➔ D'après les expériences réalisées, de nombreuses personnes
seraient ainsi parvenues à acquérir cette fameuse oreille absolue.
145
SON NUMERIQUESON NUMERIQUE
 Oreille et cerveau humain
✔ Seule la fréquence d’un diapason est considérée comme une
« fréquence absolue » servant de point de départ à tel ou tel type
d'accord. Cette fréquence est celle du la 3
est de « 440 Hz ». Une
octave en acoustique désigne un doublement de fréquence
➔ Cette valeur de 440 Hz a également été retenue pour la tonalité du
téléphone.
146
SON NUMERIQUESON NUMERIQUE
 Numérisation
✔ Le son est une suite périodique de compressions et de dépressions du
milieu dans lequel il se propage (l’air)
✔ Les divers organes de l’oreille externe, moyenne et interne captent
ces vibrations périodiques de pression et les transforment en signaux
bio-électriques qui sont ensuite transmis au cortex pour y être traités
et perçus en tant que son (musique, parole, …)
✔ La représentation analogique du son consiste à passer d’une onde
sonore à son image électrique.
✔ La représentation numérique du son nécessitera quant à elle la
quantification des échantillons prélevés sur cette image.
147
SON NUMERIQUESON NUMERIQUE
 Numérisation
➔ Onde sonore
148
SON NUMERIQUESON NUMERIQUE
 Numérisation
➔ Du continu au discret
amplitude
temp
s
Onde sonore échantillonnage quantification
149
SON NUMERIQUESON NUMERIQUE
 Numérisation
➔ Exemple d'échantillonnage :
150
SON NUMERIQUESON NUMERIQUE
 Numérisation
➔ Exemple de fréquence d'échantillonnage :
Fréquence (kHz) Applications
8 Téléphonie
11,025 Mac OS
22,05 PC
32 HTDV (high definition TV)
Radio numérique
NICAM
44,1 CD audio
48 DAT (digital audio tape)
96 DVD audio 6 canaux 5.1
192 DVD audio 2 canaux stéréo
2822,4 SACD (super audio CD)
DSD (Direct stream digital)
151
SON NUMERIQUESON NUMERIQUE
 Compression
✔ La numérisation du son transforme un signal fragile et caractérisé
par une variation continue en un signal numérique très stable fait
d’une succession de 0 et 1 : copiable et transportable sans
dégradation.
✔ Le signal numérique permet en fin de parcours de reconstituer et
de restituer de manière propre l’onde sonore originale
✔ Tout irait donc pour le mieux si les suites de 0 et 1 dont sont
constitués les documents sonores numériques n’étaient pas de
taille à poser très vite de problèmes de stockage, surtout lorsqu’il
s’agit d’enregistrements de haute qualité
➔ Exemple : une durée de 1 minute en qualité son stéréo sur CD-
DA, échantillonnage à 44,1 kHz, quantification à 16 bits sur 2
voies, aura un volume :
taux d’ échantillonnage x nbr. Bits codage x nbr. Secondes x nbr.
voies =44100 x 16 x 60 x 2 = 84672000 bits/min = ~ 10
Mo/min
152
SON NUMERIQUESON NUMERIQUE
 Compression
✔ Rappelons qu’un algorithme de compression non destructif
permet de retrouver, après décompression, l’intégralité du
document original : il n’y a pas de perte d’information sur le
contenu original.
✔ Le principe général de ce type de compression est fondé sur la recherche
des occurrences multiples d’une même suite d’octets. Ces suites étant
rassemblées dans un dictionnaire où elles seront représentées par les
codes les plus courts possibles.
✔ Les codes dans le dictionnaire remplaceront dans le fichier compressé les
longues suites d’octets du fichier original.
153
SON NUMERIQUESON NUMERIQUE
 Compression
Exemple 1 : algorithmes généralistes
WinZip, WinRar et WinAce (*.zip, *.rar, *.ace) doivent se satisfaire d’une
réduction du volume du fichier d’origine (selon la complexité de la source) de 5
à 35%
Exemple 2 : algorithmes spécifiques
WavArc, RKAU, Perfect Clarity Audio (*.wa, *.rka, *.pca) sont spécifiquement
dédiés au son et non destructifs, permettent d’atteindre une réduction de
volume de 50%.
154
SON NUMERIQUESON NUMERIQUE
 Principaux formats
✔ Parmi la multitude des formats de fichiers audio proposés sur le
marché, retenons les plus utilisés :
➔ WAV (Waveform Audio Format): format propriétaire de l’environnement
Windows sur PC, il est lu directement par la quasi-totalité des logiciels
d’édition ou de composition musicale.
➔ AIF ou AIFF (Audio Interchange File Format) ou SND (SouND): format
standard Mac OS et reconnu par les logiciels PC. Il est devenu le 1er format
d’échange multi-plateformes.
➔ AU (Audio UNIX): format développé pour UNIX, lu par la quasi-totalité de
logiciels professionnels de traitement audio.
➔ RA, RM ou RAM (Real Audio): format propriétaire adapté aux débits limités
de l’Internet pour la diffusion de sons ou vidéos en streaming * pour le
logiciel RealPLayer
155
SON NUMERIQUESON NUMERIQUE
 Principaux formats
➔ MOV ou QT (QuickTime): dessiné à l’origine à l’environnement
Macintosh, il est aujourd’hui disponible sur PC et peut être utilisé
pour réaliser du streaming.
➔ VOC (SoundBlaster): format propriétaire de Creative Labs.
➔ MP3 (MPEG-Layer 3): recommandé par le MPEG, ce format
présente l’intérêt majeur d’autoriser un taux de compression
important sans altérer notablement la qualité sonore jusqu’à
l’ordre 12:1. De nombreux lecteurs permettent la restitution des
fichiers *.mp3 : WinAmp, Nad mp3 Player, UnrealPlayer, JetAudio,
etc.
➔ MID ou MIDI (Music Instrument Digital Interface): il s’agit d’un
format très spécifique puisque le son n’est pas (à proprement
parler) numérisé comme dans les autres formats (wav, aif, etc.).
156
SON NUMERIQUESON NUMERIQUE
 Principaux formats
✔ Parmi la multitude des formats de fichiers audio proposés sur le
marché, retenons les plus utilisés :
➔ WAV (Waveform Audio Format): format propriétaire de l’environnement
Windows sur PC, il est lu directement par la quasi-totalité des logiciels
d’édition ou de composition musicale.
➔ AIF ou AIFF (Audio Interchange File Format) ou SND (SouND): format
standard Mac OS et reconnu par les logiciels PC. Il est devenu le 1er format
d’échange multi-plateformes.
➔ AU (Audio UNIX): format développé pour UNIX, lu par la quasi-totalité de
logiciels professionnels de traitement audio.
➔ RA, RM ou RAM (Real Audio): format propriétaire adapté aux débits limités
de l’Internet pour la diffusion de sons ou vidéos en streaming * pour le
logiciel RealPLayer
157
Chapitre 6 :Chapitre 6 :
VIDEOVIDEO
158
VIDEOVIDEO
 Qu'est-ce qu'une vidéo
 La vidéo analogique
 La vidéo numérique
159
VIDEOVIDEO
 Qu'est-ce qu'une vidéo ?
✔ Une vidéo est une succession d’images à une certaine cadence.
✔ L’œil humain a comme caractéristique d’être capable de
distinguer environ 20 images par seconde. Ainsi, en affichant plus
de 20 images par seconde, il est possible de tromper l’œil et de lui
faire croire à une image animée.
✔ D’autre part la vidéo au sens multimédia du terme est
généralement accompagnée de son, c’est-à-dire de données audio.
✔ La vidéo analogique représente l’information comme un flux
continu de données analogiques, destiné à être affichées sur un
écran de télévision (basé sur le principe du balayage. Il existe
plusieurs normes pour la vidéo analogique. Les trois principales
sont : PAL, NTSC, SECAM
✔ La vidéo numérique consiste à coder la vidéo en une succession
d’images numériques.
160
VIDEOVIDEO
 La vidéo analogique
✔ Il existe 3 formats de vidéo analogiques :
➔ Composite : Le type de connexion analogique le plus simple
consiste à utiliser un câble composite.Ce câble transmet le signal
vidéo à l’aide d’un fil unique. Les signaux de luminance et de
chrominance sont combinés ensemble et transmis simultanément.
Cette connexion présente la plus faible qualité du fait de la fusion
des deux signaux.
➔ S-Video : Le type de connexion présentant un niveau de qualité
immédiatement supérieur est appelé S–Video. Ce câble distribue
sur deux fils distincts le signal de luminance et les signaux de
chrominance combinés. Les deux fils sont contenus dans un câble
unique.
➔ Composante : Le système de connexion qui offre la meilleure
qualité, chaque signal YCC disposant d’un câble spécifique.
161
VIDEOVIDEO
 La vidéo analogique
✔ Trois normes de formats sont actuellement en vigueur pour la
diffusion télévisée dans le monde :
162
VIDEOVIDEO
 La vidéo numérique
✔ La vidéo numérique consiste à afficher une succession d’images
numériques. Puisqu’il s’agit d’images numériques affichées à une
certaine cadence, il est possible de connaître le débit nécessaire
pour l’affichage d’une vidéo, c’est-à-dire le nombre d’octets
affichés (ou transférés) par unité de temps.
✔ Ainsi le débit nécessaire pour afficher une vidéo (en octets par
seconde) est égal à la taille d’une image que multiplie le nombre
d’images par seconde.
✔ Soit une image true color (24 bits) ayant une définition de 640
pixels par 480. Pour afficher correctement une vidéopossédant
cette définition il est nécessaire d’afficher au moins 30 images par
seconde, c’est-à-dire un débit égal à :900 Ko * 30 = 27 Mo/s
163
VIDEOVIDEO
 La vidéo numérique
✔ Notion de codec
➔ Une image d’une vidéo non compressée occupe une taille
d’environ 1 Mo. Afin d’obtenir une vidéo paraissant fluide il est
nécessaire d’avoir une fréquence d’au moins 25 ou 30 images par
seconde, ce qui produit un flux de données d’environ30 Mo/s, soit
plus de 1.5 Go par minute.
➔ Il est évident que ce type de débit est peu compatible avec les
espaces de stockage des ordinateurs personnels ni même avec les
connexions réseau de particuliers ou de petites ou moyennes
entreprises.Ainsi, afin de pallier à cette difficulté, il est possible
de recourir à des algorithmes permettant de réduire
significativement les flux de données en compressant /
décompressant les données vidéos. On appelle ces algorithmes
CoDec (pourCOmpression / DECompression).
164
VIDEOVIDEO
 La vidéo numérique
➔ Exemples de codecs :
✗ h.261 / MPEG-1 1988
✗ Cinepac 1991 Apple
✗ Indeo 1992 Intel
✗ Avi 1992 Microsoft
✗ h.263 / MPEG-2 1995/96 ITU-T VCEG
✗ DV (Digital Video) 1995 (basé sur MPEG-2)
✗ DVD 1995 video (MPEG-2) + son(AC-3, DTS, MPEG ou
encore .ogg, MP3, VQF, AAC) !!!
✗ h.264 / MPEG-4 2003 (.mp4, .mov, .avi, .divx,etc....;)
165
VIDEOVIDEO
 La vidéo numérique
✔ Il existe au niveau de la vidéo deux sortes de compression :
➔ On parle de compression spatiale lorsque l’on réduit la taille
initiale d’une image par des moyens dégradants ou non. Cette
méthode s’applique principalement sur les images fixes.
➔ La compression temporelle est utilisée pour réduire le flux
d’information en ne conservant par exemple que les différences
entre deux images successives. On associe à la compression
temporelle deux méthodes distinctes :
✔ Le codage différentiel qui soustrait toutes les informations
redondantes d’une image à l’autre pour ne conserver que les
déplacements (problèmes si grandes différences)
✔ La seconde méthode employée est le codage par prédiction du
mouvement qui est très réducteur de volume, mais dont le défaut
est de trop dégrader l’information surtout si les mouvements sont
rapides.
166
VIDEOVIDEO
 La vidéo numérique
✔ M-JPEG
➔ La première idée qui vient à l’esprit après s’être interessé à la
compression d’images est d’appliquer . Le principe du Motion
JPEG (noté MJPEG ou M-JPEG, à ne pas confondre avec le MPEG)
consiste à appliquer successivement l’algorithme de compression
JPEG aux différentes images d’une séquence vidéo.
➔ Etant donné que le M-JPEG code séparément chaque image de la
séquence il permet d’accéder aléatoirement à n’importe quelle
partie d’une vidéo. Ainsi son débit de 8 à 10 Mbps le rend
utilisable dans les studios de montage numérique.
167
VIDEOVIDEO
 La vidéo numérique
✔ MPEG
➔ Dans de nombreuses séquences vidéos, de nombreuses scènes
sont fixes ou bien changent très peu, c’est ce que l’on nomme la
redondance temporelle.Lorsque seules les lèvres de l’acteur
bougent, presque seuls les pixels de la bouche vont être modifiés
d’une image à l’autre, il suffit donc de décrire le changement
d’une image à l’autre. C’est là la différence majeure entre le
MPEG (Mo-ving Pictures Experts Group) et le M-JPEG. Cependant
cette méthode aur beaucoup moins d’impact sur une
scèned’action.Le groupe MPEG a été établi en 1988 dans le but
de développer des standa rds internationaux de compression,
décompression, traitement et codage d’image animées et de
données audio.
➔ Il existe plusieurs standards MPEG :
168
VIDEOVIDEO
 La vidéo numérique
✔ MPEG
✗ le MPEG-1, développé en 1988, est un standard pour la
compression des données vidéos et des canaux audio associés
(jusqu’à 2 canaux pour une écoute stéréo). Il permet le stockage
de vidéos à un débit de 1.5Mbps dans une qualité proche des
cassettes VHS sur un support CD appelé VCD (Vidéo CD).
✗ le MPEG-2, un standard dédié originalement à la télévision
numérique (HDTV) offrant une qualité élevé à un débit pouvant
aller jusqu’à 40 Mbps, et 5 canaux audio surround. Le MPEG-2
permet de plus une identification et une protection contre le
piratage. Il s’agit du format utilisé par les DVD vidéos.
✗ le MPEG-4, un standard destiné à permettre le codage de données
multimédia sous formes d’objets numériques, afin d’obtenir une
plus grande interactivité, ce qui rend son usage particulièrement
adapté au Web et aux périphériques mobiles.
169
VIDEOVIDEO
 La vidéo numérique
✔ MPEG
➔ La norme MPEG-1 représente chaque image comme un ensemble
de blocs 16 x 16. Elle permet d’obtenir une résolution de:
• 352x240 à 30 images par seconde en NTSC
• 352x288 à 25 images par seconde en PAL/SECAM
➔ Le MPEG-1 permet d’obtenir des débits de l’ordre de 1.2 Mbps
(exploitable sur un lecteur de CD-ROM).
➔ Le MPEG-1 permet d’encoder une vidéo grâce à plusieurs
techniques :
170
VIDEOVIDEO
 La vidéo numérique
✔ MPEG
✗ Intra coded frames (Frames I, correspondant à un codage
interne): les images sont codées séparément sans faire référence
aux images précédentes.
✗ Predictive coded frames (frames P ou codage prédictif): les
images sont décrites par différence avec les images précédentes.
✗ Bidirectionally predictive coded frames (Frames B): les images
sont décrites par différence avec l’image précédente et l’image
suivante.
✗ DC Coded frames: les images sont décodées en faisant des
moyennes par bloc.
171
VIDEOVIDEO
 La vidéo numérique
✔ MPEG
➔ Les frames I : Ces images sont codées uniquement en utilisant le
codage JPEG, sans se soucier des images qui l’entourent. De telles
images sont nécessaires dans une vidéo MPEG car ce sont elles
qui assurent la cohésion de l’image (puisque les autres sont
décrites par rapport aux images qui les entourent), elles sont
utiles notamment pour les flux vidéo qui peuvent être pris en
cours de route (télévision), et sont indispensables en cas d’erreur
dans la réception. Il y en a donc une ou deux par seconde dans
une vidéo MPEG.
➔ Les frames P : Ces images sont définies par différence par rapport
à l’image précédente. L’encodeur recherche les différences de
l’image par rapport à la précédente et définit des blocs, appelés
macroblocs (16x16 pixels) qui se superposeront à l’image
précédente.L’algorithme compare les deux images bloc par bloc
et à partir d’un certain seuil de différence, il considère le bloc
del’image précédente différent de celui de l’image en cours et lui
applique une compression JPEG.
172
VIDEOVIDEO
 La vidéo numérique
✔ MPEG
➔ Les frames B : De la même façon que les frames P, les frames B
sont travaillées par différences par rapport à une image de
référence,sauf que dans le cas des frames B cette différence peut
s’effectuer soit sur la précédente (comme dans les cas des frames
P) soit sur la suivante, ce qui donne une meilleure compression,
mais induit un retard (puisqu’il faut connaîtrel’image suivante) et
oblige à garder en mémoire trois images (la précédente, l’actuelle
et la suivante).
➔ Afin d’optimiser le codage MPEG, les séquences d’images sont
dans la pratique codées suivant une suite d’images I, B, et P (D
étant comme on l’a dit réservé à l’avance rapide) dont l’ordre a
été déterminé expérimentalement. La séquence, type appelée
GOP (Group Of Pictures ou en français groupes d’images) est la
suivante:IBBPBBPBBPBBI
➔ Une image I est donc insérée toutes les 12 frames.
173
VIDEOVIDEO
 La vidéo numérique
Norme Objectif Etat
MPEG-1 Visionnage / Video CD (1 à 3 Mb/s) Standard en 1992
MPEG-2 Diffusion broadcast / DVD (4 à 50
Mb/s)
Standard en 1994
MPEG-4 Intégration des formats Audiovisuels
(Vidéo, audio, 2D, 3D) pour le bas et le
haut débit
Version 1 en 1998
Version 2 en 1999
2003 : H264 / part 10
MPEG-7 Description des informations
audiovisuelles pour faciliter la
recherche et le filtrage
Standard en 2001
MPEG-21 Définition d’un modèle et d’une
architecture pour la diffusion
commerciale des contenus multimédia
En cours
174
VIDEOVIDEO
 La vidéo numérique
✔ Les formats les plus connus :
➔ .mov : (Apple) container -> tous formats/résolutions et mélanges
de ceux-ci.
➔ .avi : (MS) container -> divers formats y compris DivX.
➔ .dv : idéal pour le montage vidéo avec iMovie ou autrefaible
compression => fichiers très gros mais sans perte de qualité.
➔ .mpg .mpeg : obsolète, faible compression, mauvaise qualité
d'image et de son.
➔ .wmv :(Windows Media Player) divers codecs propriétaires
non compatible QuickTime sauf via plugins Flip4Mac ou Perian
➔ .mp4 : MPEG-4 = forte compression, standardisé, accepté partout
➔ .vob : DVDs commerciaux
175
VIDEOVIDEO
 La vidéo numérique
✔ Alors, quel est le meilleur format ? Bien difficile de répondre car
cela dépend beaucoup du type du document vidéo concerné et de
son utilisation future. Voici quand même l'esquisse d'une
sélection:
➔ dv (ou .mov avec compression DV) : idéal pour le montage vidéo
mais surtout pas pour la diffusion.
➔ .mp4 :idéal pour le web car format normalisé, fichiers petits et
acceptés par tous les browsers.
➔ .flv : pas mal utilisé sur le web car les vidéos en ligne ne sont
pas/pas facilement copiables. A proscrire donc si on veut que le
lecteur puisse aisément récupérer la vidéo.
➔ .vob : si on veut faire de jolis DVDs lisibles sur n'importe quel
lecteur de salon.Dans ce cas il faut passer par un outil de création
de DVDs comme iDVD d'Apple.
176
Chapitre 7 :Chapitre 7 :
Compression de imagesCompression de images
177
Compression des imagesCompression des images
 C'est quoi la compression
 La compression sans perte
 La compression avec perte
178
Compression des imagesCompression des images
 C'est quoi la compression ?
✔ La compression de données ou codage de source est l'opération
informatique consistant à transformer une suite de bits A en une
suite de bits B plus courte pouvant restituer les mêmes
informations en utilisant un algorithme particulier.
✔ Opération de codage, elle raccourcit la taille (de transmission ou
de stockage) des données au prix d'un effort de compression et de
décompression.
✔ La décompression est l'opération inverse de la compression.
✔ La compression peut etre soit sans perte soit avec perte
179
Compression des imagesCompression des images
 La compression sans perte
✔ La compression est dite sans perte lorsqu'il n'y a aucune perte de
données sur l'information d'origine. Il y a autant d'information
après la compression qu'avant, elle est seulement réécrite d'une
manière plus concise (c'est par exemple le cas de la compression
gzip pour n'importe quel type de données ou du format PNG pour
des images synthétiques destinées au Web2).
✔ La compression sans perte est dite aussi compactage.
✔ L'information à compresser est vue comme la sortie d'une source
de symboles qui produit des textes finis selon certaines règles.
✔ Le but est de réduire la taille moyenne des textes obtenus après la
compression tout en ayant la possibilité de retrouver exactement
le message d'origine (on trouve aussi la dénomination codage de
source en opposition au codage de canal qui désigne le codage
correcteur d'erreurs).
✔ Plusieurs méthodes possibles dont on site : RLE,LZW et Huffman.
180
Compression des imagesCompression des images
● Méthode RLE
✔ Exemple :
WWWWWWWWWWWWBWWWWWWWWWWWWWWBBBW
WWWWWWWWWWWWWWWWWWWWWWBWWWWWWW
WWWW
✔ Un encodage RLE consiste alors à indiquer pour chaque suite de
pixels d'une même couleur, le nombre de pixels de cette
séquence. Le résultat comporte en général moins de caractères,
bien que ce ne soit pas une obligation. On obtient par exemple
pour la ligne précédente :
12W1B14W3B23W1B11W
✔ Tandis que : WBWBWBWBWB donnerait :
1W1B1W1B1W1B1W1B1W1B
✔ Ce qui est deux fois plus long.Remarque : Dans ce dernier cas, il
serait donc plus efficace d'écrire la lettre uniquement si elle est
seule (sans le chiffre 1). On aurait donc au pire la même taille
(dans le cas où il y aurait une ou 2 lettres identiques) mais jamais
une augmentation.
181
Compression des imagesCompression des images
● Méthode RLE
✔ Le run-length encoding, appelé en français le codage par plages,
est un algorithme de compression de données en informatique.
✔ Le système s'applique essentiellement à des documents scannés
en noir et blanc : au lieu de coder un bit par point, on dispose
d'un compteur — en général sur un octet — indiquant combien de
points blancs ou noirs se suivent. Comme il est rare de ne pas
avoir au moins 8 pixels noirs ou 8 pixels blancs qui se suivent, et
que 256 ne sont pas rares sur les endroits vierges ou les à-plats
noirs, le système a bien pour effet une compression.
✔ S'il y a plus de 256 bits de la même couleur, on peut placer
ensuite un octet spécifiant 0 bit de la couleur opposée, puis coder
le nombre de bits qui restent...
✔ Par exemple, considérons un écran de texte noir sur fond blanc. Il
sera constitué de longues séquences de pixels blancs pour le fond,
et de courtes séquences de pixels noirs pour le texte.
Représentons une ligne d'un tel écran, avec B pour les pixels
noirs et W pour les pixels blancs :
182
Compression des imagesCompression des images
● Méthode LZW :
✔ LZW (pour Lempel-Ziv-Welch) est un algorithme de compression
de données sans perte. Il s'agit d'une amélioration de l'algorithme
LZ78 inventé par Abraham Lempel et Jacob Ziv en 1978. LZW fut
créé en 1984 par Terry Welch, d'où son nom.
✔ L'algorithme LZW avait été breveté par la société Unisys1 (un
brevet logiciel valable uniquement aux États-Unis). Il a été utilisé
dans les modems (norme V42 bis) et est encore utilisé dans les
formats d'image numérique GIF ou TIFF et les fichiers audio
MOD.
✔ L’algorithme est conçu pour être rapide à implémenter, mais n’est
la plupart du temps pas optimal car il effectue une analyse limitée
des données à compresser.
183
Compression des imagesCompression des images
● Méthode LZW :
w = Nul;
tant que (lecture d'un caractère c) faire
si (wc existe dans le dictionnaire) alors
w = wc;
sinon
ajouter wc au dictionnaire;
écrire le code de w;
w = c;
fin si
fin tant que
écrire le code de w;
184
Compression des imagesCompression des images
● Méthode LZW :
✔ Exemple
✔ La table suivante montre le résultat de l'exécution de l'algorithme
de compression sur la chaîne suivante :
TOBEORNOTTOBEORTOBEORNOT
✔ On suppose qu'on utilise un code ASCII de 256 caractères (8-bits)
comme dictionnaire de base. La longueur de cette chaîne est de
24 caractères. Elle nécessite donc 24 * 8 = 192 bits d'espace de
stockage.
✔ Après la compression, nous obtenons une séquence de codes de 9
bits sur la sortie :
TOBEORNOT<256><258><260><265><259><261><263>
✔ Elle nécessite 16 × 9 = 144 bits d'espace de stockage, au lieu des
192 bits de la chaine originale.
185
Compression des imagesCompression des images
● Méthode LZW :
186
Compression des imagesCompression des images
● Méthode Huffman :
✔ Le principe du codage de Huffman repose sur la création d'un
arbre composé de nœuds. Supposons que la phrase à coder est «
wikipédia ».
✔ On recherche tout d'abord le nombre d'occurrences de chaque
caractère (ici les caractères 'a', 'd', 'é', 'k', 'p' et 'w' sont
représentés chacun une fois et le caractère 'i' trois fois).
✔ Chaque caractère constitue une des feuilles de l'arbre à laquelle
on associe un poids valant son nombre d'occurrences. Puis l'arbre
est créé suivant un principe simple : on associe à chaque fois les
deux nœuds de plus faibles poids pour donner un nœud dont le
poids équivaut à la somme des poids de ses fils jusqu'à n'en avoir
plus qu'un, la racine. On associe ensuite par exemple le code 0 à
la branche de gauche et le code 1 à la branche de droite.
187
Compression des imagesCompression des images
● Méthode Huffman :
✔ Example :
Symbol Frequency
A 24
B 12
c 10
D 8
E 8
188
Compression des imagesCompression des images
● Méthode Huffman :
Symbol Frequency Code Code total
Length Length
A 24 0 1 24
B 12 100 3 36
C 10 101 3 30
D 8 110 3 2
E 8 111 3 24
189
Compression des imagesCompression des images
 La compression avec perte
✔ La compression est dite avec perte ou destructive (contrairement
à la compression sans perte ou non destructive engendre
généralement une perte de données plus au moins visible .
✔ Elle peut utiliser un codage non destructif tel est celui de huffman
✔ Plusieurs méthodes possibles dont on site : la norme jpeg .
190
Compression des imagesCompression des images
● La norme JPEG (Joint Photographic Expert Group )
✔ JPEG définit deux classes de processus de compression :
• avec pertes ou compression irréversible. C’est le JPEG « classique ». Il
permet des taux de compression de 3 à 100
• sans pertes ou compression réversible. Il n’y a pas de pertes
d’information et il est donc possible de revenir aux valeurs originales de
l’image. Les gains en termes de compression sont alors plus modestes,
avec un taux de compression de l’ordre de 2 à 8 [réf. nécessaire]. Cette
partie fait l’objet d’une norme spécifique appelée JPEG-LS.
191
Compression des imagesCompression des images
● La norme JPEG (Joint Photographic Expert Group )
✔ La technique de codage repose , après une transformation
discrète en cosinus (DCT) , sur une quantification suivie d'un
codage de Huffman. La rigueur de la spécification est spécifiée au
moment du codage .
✔ Ce paramètre va interférer sur la qualité du résultat :
• 10:1 à 20:1 sans perte visible
• 30:1 à 50:1 avec perte modérée
• 100:1 pour les images de faibles qualités
✔ La transformée DCT (Discrete Cosine Transform, en français
transformée en cosinus discrète), est une transformation
numérique qui est appliquée à chaque bloc. Cette transformée est
une variante de la transformée de Fourier. Elle décompose un
bloc, considéré comme une fonction numérique à deux variables,
en une somme de fonctions cosinus oscillant à des fréquences
différentes.
192
Compression des imagesCompression des images
● La norme JPEG (Joint Photographic Expert Group )
✔ La transformée DCT s’exprime mathématiquement par :
✔ Et la transformée DCT inverse s’exprime par :
✔ Dans les deux cas la constante vaut 1 si x>0 et 1/racine(2) sinon
193
Compression des imagesCompression des images
● La norme JPEG (Joint Photographic Expert Group )
194
Compression des imagesCompression des images
● L'utilisation des fractales :
✔ La compression fractale est une méthode de compression d'image
encore peu utilisée aujourd’hui. Elle repose sur la détection de la
récurrence des motifs, et tend à éliminer la redondance
d’informations dans l'image.
✔ C'est une méthode destructive puisque l'ensemble des données de
départ ne se retrouve pas dans l'image finale. Il existe plusieurs
méthodes (subdivision de triangles, Delaunay etc.) mais la
compression par la méthode Jacquin est la plus connue.
✔ L'idée de base est la description des images par des équations
ainsi l'image est définie par des transformations et non point par
point .Ce fait engendre :
• On peut obtenir un taux de compression de 30:1 sans effet de masaique .
• Mais ça nécessite beaucoup de puissance et un temps de compression
énorme .
195
Compression des imagesCompression des images
● Le codage par ondelette :
✔ Le principe est de décomposer l'image en de multiples images de
faibles résolutions .
✔ La compression se compose donc des étapes suivantes
1. Transformations par ondelettes.
2. Quantification : les valeurs des images de détails inférieures à un certain
niveau sont éliminées, en fonction de l’efficacité recherchée. C’est cette
étape qui introduit des pertes.
3. Codage des valeurs restantes.
✔ Les principaux avantages par rapport à JPEG sont :
• Le fait que l’algorithme s’adapte mieux aux propriétés locales de l’image.
• On peut atteindre des taux de compression d’environ 50 contre 15 pour
JPEG tout en ayant une qualité d’image raisonnable.

Contenu connexe

Tendances

présentation soutenance PFE.ppt
présentation soutenance PFE.pptprésentation soutenance PFE.ppt
présentation soutenance PFE.pptMohamed Ben Bouzid
 
BigData_TP1: Initiation à Hadoop et Map-Reduce
BigData_TP1: Initiation à Hadoop et Map-ReduceBigData_TP1: Initiation à Hadoop et Map-Reduce
BigData_TP1: Initiation à Hadoop et Map-ReduceLilia Sfaxi
 
TD2 - UML - Correction
TD2 - UML - CorrectionTD2 - UML - Correction
TD2 - UML - CorrectionLilia Sfaxi
 
TP2-UML-Correction
TP2-UML-CorrectionTP2-UML-Correction
TP2-UML-CorrectionLilia Sfaxi
 
Conception et Réalisation d’une application de Gestion SCOLAIRE
Conception et Réalisation d’une application de Gestion SCOLAIREConception et Réalisation d’une application de Gestion SCOLAIRE
Conception et Réalisation d’une application de Gestion SCOLAIREGhizlane ALOZADE
 
Présentation pfe - Etude, conception et réalisation d'une application web de ...
Présentation pfe - Etude, conception et réalisation d'une application web de ...Présentation pfe - Etude, conception et réalisation d'une application web de ...
Présentation pfe - Etude, conception et réalisation d'une application web de ...Ayoub Mkharbach
 
Rapport de projet de fin d'année
Rapport de projet de fin d'année Rapport de projet de fin d'année
Rapport de projet de fin d'année kaies Labiedh
 
Rapport de stage d'initiation 2015 Mahmoudi Mohamed Amine
Rapport de stage d'initiation 2015 Mahmoudi Mohamed AmineRapport de stage d'initiation 2015 Mahmoudi Mohamed Amine
Rapport de stage d'initiation 2015 Mahmoudi Mohamed AmineMohamed Amine Mahmoudi
 
Rapport- Conception et réalisation d'une plateforme social learning
Rapport- Conception et réalisation d'une plateforme social learningRapport- Conception et réalisation d'une plateforme social learning
Rapport- Conception et réalisation d'une plateforme social learningRouâa Ben Hammouda
 
Traitement d'image sous Matlab
Traitement d'image sous Matlab  Traitement d'image sous Matlab
Traitement d'image sous Matlab Hajer Dahech
 
Systèmes d'Exploitation - chp5-gestion fichiers
Systèmes d'Exploitation - chp5-gestion fichiersSystèmes d'Exploitation - chp5-gestion fichiers
Systèmes d'Exploitation - chp5-gestion fichiersLilia Sfaxi
 
Expose sur l' informatique ok
Expose sur l' informatique okExpose sur l' informatique ok
Expose sur l' informatique okNICKYKROU
 
Présentation PFE (Conception et développement d'une application web && mobile...
Présentation PFE (Conception et développement d'une application web && mobile...Présentation PFE (Conception et développement d'une application web && mobile...
Présentation PFE (Conception et développement d'une application web && mobile...Ramzi Noumairi
 
Rapport (Mémoire de Master) de stage PFE pour l’obtention du Diplôme Nationa...
Rapport (Mémoire de Master) de stage PFE pour  l’obtention du Diplôme Nationa...Rapport (Mémoire de Master) de stage PFE pour  l’obtention du Diplôme Nationa...
Rapport (Mémoire de Master) de stage PFE pour l’obtention du Diplôme Nationa...Mohamed Amine Mahmoudi
 
Cours systèmes temps réel partie 1 Prof. Khalifa MANSOURI
Cours  systèmes temps réel partie 1 Prof. Khalifa MANSOURICours  systèmes temps réel partie 1 Prof. Khalifa MANSOURI
Cours systèmes temps réel partie 1 Prof. Khalifa MANSOURIMansouri Khalifa
 
Fascicule de tp atelier développement web
Fascicule de tp atelier développement webFascicule de tp atelier développement web
Fascicule de tp atelier développement webHouda TOUKABRI
 

Tendances (20)

présentation soutenance PFE.ppt
présentation soutenance PFE.pptprésentation soutenance PFE.ppt
présentation soutenance PFE.ppt
 
BigData_TP1: Initiation à Hadoop et Map-Reduce
BigData_TP1: Initiation à Hadoop et Map-ReduceBigData_TP1: Initiation à Hadoop et Map-Reduce
BigData_TP1: Initiation à Hadoop et Map-Reduce
 
TD2 - UML - Correction
TD2 - UML - CorrectionTD2 - UML - Correction
TD2 - UML - Correction
 
Tp n 5 linux
Tp n 5 linuxTp n 5 linux
Tp n 5 linux
 
TP2-UML-Correction
TP2-UML-CorrectionTP2-UML-Correction
TP2-UML-Correction
 
Rapport Projet Fin d'Études PFE
Rapport Projet Fin d'Études PFERapport Projet Fin d'Études PFE
Rapport Projet Fin d'Études PFE
 
Conception et Réalisation d’une application de Gestion SCOLAIRE
Conception et Réalisation d’une application de Gestion SCOLAIREConception et Réalisation d’une application de Gestion SCOLAIRE
Conception et Réalisation d’une application de Gestion SCOLAIRE
 
Présentation pfe - Etude, conception et réalisation d'une application web de ...
Présentation pfe - Etude, conception et réalisation d'une application web de ...Présentation pfe - Etude, conception et réalisation d'une application web de ...
Présentation pfe - Etude, conception et réalisation d'une application web de ...
 
Rapport de projet de fin d'année
Rapport de projet de fin d'année Rapport de projet de fin d'année
Rapport de projet de fin d'année
 
Rapport de stage d'initiation 2015 Mahmoudi Mohamed Amine
Rapport de stage d'initiation 2015 Mahmoudi Mohamed AmineRapport de stage d'initiation 2015 Mahmoudi Mohamed Amine
Rapport de stage d'initiation 2015 Mahmoudi Mohamed Amine
 
Présentation PFE
Présentation PFEPrésentation PFE
Présentation PFE
 
Rapport- Conception et réalisation d'une plateforme social learning
Rapport- Conception et réalisation d'une plateforme social learningRapport- Conception et réalisation d'une plateforme social learning
Rapport- Conception et réalisation d'une plateforme social learning
 
Traitement d'image sous Matlab
Traitement d'image sous Matlab  Traitement d'image sous Matlab
Traitement d'image sous Matlab
 
Td dw1
Td dw1Td dw1
Td dw1
 
Systèmes d'Exploitation - chp5-gestion fichiers
Systèmes d'Exploitation - chp5-gestion fichiersSystèmes d'Exploitation - chp5-gestion fichiers
Systèmes d'Exploitation - chp5-gestion fichiers
 
Expose sur l' informatique ok
Expose sur l' informatique okExpose sur l' informatique ok
Expose sur l' informatique ok
 
Présentation PFE (Conception et développement d'une application web && mobile...
Présentation PFE (Conception et développement d'une application web && mobile...Présentation PFE (Conception et développement d'une application web && mobile...
Présentation PFE (Conception et développement d'une application web && mobile...
 
Rapport (Mémoire de Master) de stage PFE pour l’obtention du Diplôme Nationa...
Rapport (Mémoire de Master) de stage PFE pour  l’obtention du Diplôme Nationa...Rapport (Mémoire de Master) de stage PFE pour  l’obtention du Diplôme Nationa...
Rapport (Mémoire de Master) de stage PFE pour l’obtention du Diplôme Nationa...
 
Cours systèmes temps réel partie 1 Prof. Khalifa MANSOURI
Cours  systèmes temps réel partie 1 Prof. Khalifa MANSOURICours  systèmes temps réel partie 1 Prof. Khalifa MANSOURI
Cours systèmes temps réel partie 1 Prof. Khalifa MANSOURI
 
Fascicule de tp atelier développement web
Fascicule de tp atelier développement webFascicule de tp atelier développement web
Fascicule de tp atelier développement web
 

En vedette

Examen principal - PHP
Examen principal - PHPExamen principal - PHP
Examen principal - PHPInes Ouaz
 
Application Spring MVC/IOC & Hibernate
Application Spring MVC/IOC & HibernateApplication Spring MVC/IOC & Hibernate
Application Spring MVC/IOC & HibernateInes Ouaz
 
Examen principal- php - correction
Examen principal- php - correctionExamen principal- php - correction
Examen principal- php - correctionInes Ouaz
 
Examen principal - Algorithme & Structures de données
Examen principal - Algorithme & Structures de donnéesExamen principal - Algorithme & Structures de données
Examen principal - Algorithme & Structures de donnéesInes Ouaz
 
Examen principal + Correction ASD
Examen principal + Correction ASDExamen principal + Correction ASD
Examen principal + Correction ASDInes Ouaz
 
Prototype rapport
Prototype rapportPrototype rapport
Prototype rapportInes Ouaz
 
Travaux dirigés 1: algorithme & structures de données
Travaux dirigés 1: algorithme & structures de donnéesTravaux dirigés 1: algorithme & structures de données
Travaux dirigés 1: algorithme & structures de donnéesInes Ouaz
 
Travaux dirigés 1: algorithme & structures de données (corrigés)
Travaux dirigés 1: algorithme & structures de données (corrigés)Travaux dirigés 1: algorithme & structures de données (corrigés)
Travaux dirigés 1: algorithme & structures de données (corrigés)Ines Ouaz
 
Cv ines ouaz
Cv ines ouazCv ines ouaz
Cv ines ouazInes Ouaz
 

En vedette (9)

Examen principal - PHP
Examen principal - PHPExamen principal - PHP
Examen principal - PHP
 
Application Spring MVC/IOC & Hibernate
Application Spring MVC/IOC & HibernateApplication Spring MVC/IOC & Hibernate
Application Spring MVC/IOC & Hibernate
 
Examen principal- php - correction
Examen principal- php - correctionExamen principal- php - correction
Examen principal- php - correction
 
Examen principal - Algorithme & Structures de données
Examen principal - Algorithme & Structures de donnéesExamen principal - Algorithme & Structures de données
Examen principal - Algorithme & Structures de données
 
Examen principal + Correction ASD
Examen principal + Correction ASDExamen principal + Correction ASD
Examen principal + Correction ASD
 
Prototype rapport
Prototype rapportPrototype rapport
Prototype rapport
 
Travaux dirigés 1: algorithme & structures de données
Travaux dirigés 1: algorithme & structures de donnéesTravaux dirigés 1: algorithme & structures de données
Travaux dirigés 1: algorithme & structures de données
 
Travaux dirigés 1: algorithme & structures de données (corrigés)
Travaux dirigés 1: algorithme & structures de données (corrigés)Travaux dirigés 1: algorithme & structures de données (corrigés)
Travaux dirigés 1: algorithme & structures de données (corrigés)
 
Cv ines ouaz
Cv ines ouazCv ines ouaz
Cv ines ouaz
 

Similaire à Cours fondement du multimedia

Digital Signal Processor ( DSP ) [French]
Digital Signal Processor ( DSP )  [French]Digital Signal Processor ( DSP )  [French]
Digital Signal Processor ( DSP ) [French]Assia Mounir
 
Les mathématiques au service du transport de l’information
Les mathématiques au service du transport de l’informationLes mathématiques au service du transport de l’information
Les mathématiques au service du transport de l’informationDany-Jack Mercier
 
Tp 1 transmission de donné inisiallisation à simulink matlab
Tp 1 transmission de donné inisiallisation à simulink matlabTp 1 transmission de donné inisiallisation à simulink matlab
Tp 1 transmission de donné inisiallisation à simulink matlabhamdinho
 
Protice - TVIP - Pierre Chiron
Protice - TVIP - Pierre ChironProtice - TVIP - Pierre Chiron
Protice - TVIP - Pierre Chirontangi bertin
 
Le traitement du signal en Audio. Les procédés de compression audio. Présent...
Le traitement du signal en Audio. Les  procédés de compression audio. Présent...Le traitement du signal en Audio. Les  procédés de compression audio. Présent...
Le traitement du signal en Audio. Les procédés de compression audio. Présent...Vincent RECIPON
 
Usrp episode 1: smoke gets in your eyes
Usrp episode 1: smoke gets in your eyesUsrp episode 1: smoke gets in your eyes
Usrp episode 1: smoke gets in your eyes📡 Sebastien Dudek
 
Lamini&farsane traitement de_signale
Lamini&farsane traitement de_signaleLamini&farsane traitement de_signale
Lamini&farsane traitement de_signaleAsmae Lamini
 
Mesures vibratoires et acoustiques appliquées au contrôle qualité en production
Mesures vibratoires et acoustiques appliquées au contrôle qualité en productionMesures vibratoires et acoustiques appliquées au contrôle qualité en production
Mesures vibratoires et acoustiques appliquées au contrôle qualité en productionSAPHIR - Signal Physique & Instrumentation
 
Télérelevé multifluides : Eau Gas Chaleur Elec - Conférence distributeurs mu...
Télérelevé multifluides : Eau Gas Chaleur Elec - Conférence distributeurs mu...Télérelevé multifluides : Eau Gas Chaleur Elec - Conférence distributeurs mu...
Télérelevé multifluides : Eau Gas Chaleur Elec - Conférence distributeurs mu...Benoit Cliche
 
Asterisk to ip_rapport
Asterisk to ip_rapportAsterisk to ip_rapport
Asterisk to ip_rapportGilles Samba
 
Systèmes audio Fin 2 (1).ppsx
Systèmes audio Fin 2 (1).ppsxSystèmes audio Fin 2 (1).ppsx
Systèmes audio Fin 2 (1).ppsxHadjer Kaddour
 
Electronique et-loisirs-n011
Electronique et-loisirs-n011Electronique et-loisirs-n011
Electronique et-loisirs-n011Cecilia Bevilaqua
 
cours1 (1).pdf
cours1 (1).pdfcours1 (1).pdf
cours1 (1).pdfAlynaEla
 
VoIP-kobbane2018_1_.pdf
VoIP-kobbane2018_1_.pdfVoIP-kobbane2018_1_.pdf
VoIP-kobbane2018_1_.pdfAlKir1
 
Td infos sonores
Td infos sonoresTd infos sonores
Td infos sonoresericlalique
 
M-Electronique numerique avancee VHDl-FPGA-Chap1-1.pptx
M-Electronique numerique avancee VHDl-FPGA-Chap1-1.pptxM-Electronique numerique avancee VHDl-FPGA-Chap1-1.pptx
M-Electronique numerique avancee VHDl-FPGA-Chap1-1.pptxwafawafa52
 

Similaire à Cours fondement du multimedia (20)

Criteres evalformatscompressioncicmhd3d
Criteres evalformatscompressioncicmhd3dCriteres evalformatscompressioncicmhd3d
Criteres evalformatscompressioncicmhd3d
 
Digital Signal Processor ( DSP ) [French]
Digital Signal Processor ( DSP )  [French]Digital Signal Processor ( DSP )  [French]
Digital Signal Processor ( DSP ) [French]
 
Les mathématiques au service du transport de l’information
Les mathématiques au service du transport de l’informationLes mathématiques au service du transport de l’information
Les mathématiques au service du transport de l’information
 
Tp 1 transmission de donné inisiallisation à simulink matlab
Tp 1 transmission de donné inisiallisation à simulink matlabTp 1 transmission de donné inisiallisation à simulink matlab
Tp 1 transmission de donné inisiallisation à simulink matlab
 
Protice - TVIP - Pierre Chiron
Protice - TVIP - Pierre ChironProtice - TVIP - Pierre Chiron
Protice - TVIP - Pierre Chiron
 
Le traitement du signal en Audio. Les procédés de compression audio. Présent...
Le traitement du signal en Audio. Les  procédés de compression audio. Présent...Le traitement du signal en Audio. Les  procédés de compression audio. Présent...
Le traitement du signal en Audio. Les procédés de compression audio. Présent...
 
Usrp episode 1: smoke gets in your eyes
Usrp episode 1: smoke gets in your eyesUsrp episode 1: smoke gets in your eyes
Usrp episode 1: smoke gets in your eyes
 
Cours4 gdm
Cours4 gdmCours4 gdm
Cours4 gdm
 
Lamini&farsane traitement de_signale
Lamini&farsane traitement de_signaleLamini&farsane traitement de_signale
Lamini&farsane traitement de_signale
 
Mesures vibratoires et acoustiques appliquées au contrôle qualité en production
Mesures vibratoires et acoustiques appliquées au contrôle qualité en productionMesures vibratoires et acoustiques appliquées au contrôle qualité en production
Mesures vibratoires et acoustiques appliquées au contrôle qualité en production
 
Télérelevé multifluides : Eau Gas Chaleur Elec - Conférence distributeurs mu...
Télérelevé multifluides : Eau Gas Chaleur Elec - Conférence distributeurs mu...Télérelevé multifluides : Eau Gas Chaleur Elec - Conférence distributeurs mu...
Télérelevé multifluides : Eau Gas Chaleur Elec - Conférence distributeurs mu...
 
Asterisk to ip_rapport
Asterisk to ip_rapportAsterisk to ip_rapport
Asterisk to ip_rapport
 
Systèmes audio Fin 2 (1).ppsx
Systèmes audio Fin 2 (1).ppsxSystèmes audio Fin 2 (1).ppsx
Systèmes audio Fin 2 (1).ppsx
 
Electronique et-loisirs-n011
Electronique et-loisirs-n011Electronique et-loisirs-n011
Electronique et-loisirs-n011
 
cours1 (1).pdf
cours1 (1).pdfcours1 (1).pdf
cours1 (1).pdf
 
C3xlumis 3d catalogue
C3xlumis 3d catalogueC3xlumis 3d catalogue
C3xlumis 3d catalogue
 
VoIP-kobbane2018_1_.pdf
VoIP-kobbane2018_1_.pdfVoIP-kobbane2018_1_.pdf
VoIP-kobbane2018_1_.pdf
 
Td infos sonores
Td infos sonoresTd infos sonores
Td infos sonores
 
cours-LES RESEAUX HAUTS DEBITS.pdf
cours-LES RESEAUX HAUTS DEBITS.pdfcours-LES RESEAUX HAUTS DEBITS.pdf
cours-LES RESEAUX HAUTS DEBITS.pdf
 
M-Electronique numerique avancee VHDl-FPGA-Chap1-1.pptx
M-Electronique numerique avancee VHDl-FPGA-Chap1-1.pptxM-Electronique numerique avancee VHDl-FPGA-Chap1-1.pptx
M-Electronique numerique avancee VHDl-FPGA-Chap1-1.pptx
 

Cours fondement du multimedia

  • 1. COURS:FONDEMENT DU MULTIMEDIACOURS:FONDEMENT DU MULTIMEDIA BEN MEFTEH HAMDIBEN MEFTEH HAMDI ISET RADES 2012-2013ISET RADES 2012-2013 11
  • 2. 2 PLAN DU COURS  INTRODUCTION  NUMERISATION  PERCEPTION VISUELLE ET SVH (RGB ET SV)  IMAGE NUMERIQUE  SON NUMERIQUE  VIDEO
  • 3. 3 Chapitre 1 :Chapitre 1 : INTRODUCTIONINTRODUCTION
  • 4. 4 INTRODUCTION  Qu'est-ce que le multimédia?  Origine  Historique  Intérȇt du multimédia  Les applications multimédia
  • 5. 5 INTRODUCTION  Qu'est-ce que le multimédia? ✔ ”C'est l'ouverture de l'informatique à d'autres formes d'informations que le texte et le graphique.”( le livre blanc du multimedia ) ✔ ”Technique de communication qui tend à rassembler sur un seul support l'ensemble des moyens audiovisuels (médium de base , dessins animés et informatiques (données et programmes ) pour les diffuser simultanément et de manière interactives” (dictionnaire du multimédia) ✔ ”Le terme multimédia designe un système intégrant divers média et autorisant leur utilisation interactive.”(The Design Of an Extensible Multimedia Library for an OODBMS)
  • 6. 6 INTRODUCTION ✔ Selon la norme AFNOR le terme MULTIMEDIA peut désigner : - Un assemblage des technologies destinées à gérer les données, le son et l'image sur un même support.  -Un Ensemble de techniques permettant d'utiliser des informations de type texte, image fixe, image animée et son sur un même support. -Une caractéristique d'un système de traitement, un ordinateur, un logiciel, etc., permettant l'exploitation simultanée de données numériques, de textes, d'images fixes ou animées, de sons.
  • 7. 7 INTRODUCTION  origine ✔ Le multimédia est le carrefour de plusieures domaines : - audiovisuel - informatique - télécommunications - art graphique,publicité,électronique... ✔ Ce domaine a bénéficier des avancées technologiques - Technologies de stockage. - Méthodes de compression/décompression. - Technologies de transfert de données. - Accroissement des capacités de traitements des ordinateurs
  • 8. 8 INTRODUCTION  Historique ✔ Né dans les années 80 : – Avec le vidéodisque analogique. – Pour stocker des sons, des images fixes et de la vidéo. – Premier : Hypercard (Macintosh Apple): + Stocker du texte, des images et du son, + Les manipuler, + Les consulter par navigation.
  • 9. 9 INTRODUCTION  Historique ✔ 1984-1985 : interface graphique sur les ordinateurs ✔ ~1988 : CD-ROM ✔ 1990 : sons et images sophistiqués ✔ Techniques de compression ✔ Puissance des machines ✔ 1994 : démocratisation d’Internet ✔ 2004 : Web 2.0 ✔ …
  • 10. 10 INTRODUCTION  Intérȇt du multimédia ✔ Nous nous souvenons en moyenne de : - 10 % de ce que nous lisons - 20 % de ce que nous entendons - 30 % de ce que nous voyons. Et : - 50 % de ce que nous voyons et entendons en même temps, - 80 % de ce que nous disons, - 90 % de ce que nous faisons et disons en même temps.
  • 11. 11 INTRODUCTION  Les applications : ✔ Applications « grand-public » (loisir, éducation, art et culture,...) ✔ magazine, journaux en ligne ✔ musée interactif ✔ encyclopédies électroniques ✔ livres électroniques ✔ TV et cinéma interactifs ✔ vidéo à la demande ✔ réalité virtuelle ✔ auto-apprentissage
  • 12. 12 INTRODUCTION  Les applications : ✔ Applications professionnelles (commerce, promotion, formation) – formation à distance – vidéoconférences (visioconférence) – catalogues interactifs – commerce électronique – domaine médical (télédiagnostic,dossiers) – construction (architecte, simulation) – réservation en ligne
  • 13. 13 Chapitre 2 :Chapitre 2 : NUMERISATIONNUMERISATION
  • 14. 14 NUMERISATION  Pourquoi numériser ?  CAN ET CNA  Echantillonnage  Quantification
  • 15. 15 NUMERISATION  Pourquoi numériser ? ✔ Jusqu'aux années 1960-1970 le traitement des signaux se faisait par voie purement analogique grâce à des systèmes matériels électroniques. ✔ Inconvénients : * Manque de fiabilité des résultats due à l'inévitable dérive et dispersion des caractéristiques des composants * Etude difficile et approximative car basée sur des phénomènes physiques analogues mais pas toujours identiques aux phénomènes réels. * Inévitable introduction d'artefacts - parasites - dus au bruit des systèmes de traitement eux-mêmes. Bruit le plus souvent indissociable du signal.
  • 16. 16 NUMERISATION  Pourquoi numériser ? * Coût des prototypes. Chaque application étant étroitement liée à son système matériel, toute modification impliquant pratiquement sa reconstruction matérielle. * Coûts de construction en série élevés en raison du nombre considérable d'insertions de composants discrets analogiques à faible densité d'intégration fonctionnelle : résistances - condensateurs etc. ✔ L'avénement des machines de calcul numérique à forte densité d'intégration - microprocesseurs - a permis de substituer le traitement numérique des grandeurs physiques analogiques à leur traitement analogique.
  • 17. 17 NUMERISATION  Pourquoi numériser ? ✔ L'unité centrale, grâce à un programme approprié peut effectuer des calculs sur les valeurs instantanées d'un signale et en déduire les corrections souhaitées. ✔ On a transféra les compétences de la physique vers les mathématiques. ✔ Etapes du traitement numérique : 1. Transformer le signal analogique à traiter en un signal électrique proportionnel : c'est la capture ou l'acquisition du signal. Les instruments en sont divers : microphones pour les sons, tubes analyseurs d'images pour la vidéo, capteurs industriels etc. Cette étape est encore purement analogique. 2. Convertir le signal électrique en une suite de valeurs numériques binaires, seules compréhensibles par les calculateurs numériques. C'est la conversion analogique- numérique.
  • 18. 18 NUMERISATION  Pourquoi numériser ? 3. Lancer le programme de calcul mathématique censé opérer le traitement voulu. 4. Convertir les codes binaires résultant du calcul en un signal électrique pour ramener le résultat final dans le monde réel analogique. C'est la conversion numérique-analogique. 5. Reconvertir le signal électrique dans la grandeur physique initiale : haut parleurs, écrans vidéo, transducteurs industriels.
  • 20. 20 NUMERISATION  CAN et CNA ✔ Un Converstisseur Analogique-Numérique CAN est un circuit integré qui permet de convertir un signal analogique en un signal numérique. ✔ Un Convertisseur Numérique-Analogique CNA est un circuit integré qui fait l'inverse ✔ Les CAN sont plus complexes et plus chères que les CNA et leurs prix varient selon deux parametres : - résolution -la rapidité de conversion
  • 21. 21 NUMERISATION  CAN et CNA ✔ La figure ci-dessous illustre un CAN de 4 bits :
  • 22. 22 NUMERISATION  CAN et CNA ✔ La résolution est un nombre qui mesure la finesse de la conversion ✔ Il dépend du nombre de bits du convertisseur ✔ Plus la résolution est élevée : ➔ plus les échelons sont nombreux pour une même étendue de valeurs extrêmes ➔ plus les écarts entre valeurs successives seront faibles ➔ plus le signal initial sera fidèlement relevé.
  • 23. 23 NUMERISATION  CAN et CNA ✔ Résolution relative pour un convertisseur de 8 bits : 1 / 255 = 0,003921 = 0,3921 % ✔ Avec un convertisseur 16 bits : 1/65635 = 15,2590 E-6 ✔ Cette définition est également valable pour les convertisseurs inverses : les CNA
  • 24. 24 NUMERISATION  Echantillonnage ✔ Si le signal à transmettre est une fonction du temps ; c'est entre autre le cas du son ou de l'image vidéo. Combien de fois par seconde devrons-nous relever ses valeurs sucessives pour le restituer fidèlement ? ✔ L'échantillonnge = la discrétisation dans le temps (sampling en Anglais). ✔ Nous comprenons bien que si les échantillons sont "rares" le signal analogique sera grossièrement traduit et donc grossièrement restitué : on le dira sous-numérisé. ✔ Il semble bien qu'il faudra un nombre "assez élevé" d'échantilonnages par seconde si l'on souhaite une "bonne restitution" par la suite.
  • 25. 25 NUMERISATION  Echantillonnage ✔ Si La figure ci-dessous présente le même signal sinusoïdal échantillonné 8, puis 4 fois par période.
  • 26. 26 NUMERISATION  Echantillonnage ✔ Si La figure ci-dessous présente le précédent signal sinusoïdal échantillonné 3 puis 2 fois par période.
  • 27. 27 NUMERISATION  Echantillonnage ✔ Le théorème de l'échantillonnage précise la fréquence minimale d'échantillonnage pour un signal sinusoïdal analogique de fréquence donnée : La fréquence d'échantillonnage minimale requise pour pouvoir ensuite restituer un signal sinusoïdal est le double de la fréquence de ce signal. ✔ Ce qui donne (à retenir) : ➔ La fréquence d'échantillonnage minimale requise pour pouvoir ensuite restituer un signal est le double de la fréquence de la plus haute des harmoniques de ce signal que l'on souhaite restituer (th de Shannon)
  • 28. 28 NUMERISATION  Echantillonnage ✔ Exemple : ➔ Le son téléphonique est contenu dans la bande théorique maximale de 0 - 4 kHz. L'harmonique la plus élevée a une fréquence de 4 kHz. Si nous voulons restituer toutes ses harmoniques, il nous faudra donc prélever 8 000 échantillons par seconde. (En fait, la bande passante pratique de la boucle terminale analogique d'abonné est de 300 Hz - 3,5 kHz. Soit 3,2 kHz.) ➔ La musique de qualité exige une bande passante de 20 Hz à 20 kHz. L'échantillonnage se fera donc à 40 kHz. L'échantillonnage standard pour les CD est de 44,1 kHz (44 100 échantillons par seconde).
  • 29. 29 NUMERISATION  Quantification ✔ C'est en Anglais Quantization . ✔ Quantification = discrétisation de l'amplitude . ✔ Il s'agit de terminer le nombre de bits utilisés pour discrétiser la valeur de chaque échantillon ✔ Exemple : Un son dont la fréquence d'échantillonnage est 44 KHZ peut ȇtre 8 bits , 16 bits ,... 8 bits → 256 valeurs On a discrétisé l'intervalle continu [Vmin , Vmax] en 256 valeurs possibles
  • 30. 30 NUMERISATION  Quantification ✔ C'est en Anglais Quantization . ✔ Quantification = discrétisation de l'amplitude . ✔ Il s'agit de terminer le nombre de bits utilisés pour discrétiser la valeur de chaque échantillon ✔ Exemple : Un son dont la fréquence d'échantillonnage est 44 KHZ peut ȇtre 8 bits , 16 bits ,... 8 bits → 256 valeurs On a discrétisé l'intervalle continu [Vmin , Vmax] en 256 valeurs possibles
  • 31. 31 Chapitre 3 :Chapitre 3 : PERCEPTION VISUELLEPERCEPTION VISUELLE ET SVH (RGB ETET SVH (RGB ET SYSTEMES VIRTUELS)SYSTEMES VIRTUELS)
  • 32. 32 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Vision Humaine  Illusion  Les espaces de couleur
  • 33. 33 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Vision Humaine ✔ Chez l'humain la perception de la couleur depend de : ➔ la lumière, ➔ des objets reflétant la lumière, ➔ de l'oeil et du cerveau du spectateur ✔ La perception de la couleur varie considérablement en fonction de l'environnement extérieur. ➔ la même couleur semble différente éclairée par le soleil ou à la bougie. ➔ la vue humaine s'adapte à la source de lumière, nous permettant de déterminer qu'il s'agit de la même
  • 34. 34 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Vision Humaine ✔ La perception de la couleur varie également d'un individu à un autre. ➔ Nous pouvons percevoir une couleur comme étant chaude, froide, pesante,légère, douce, vive,excitante, relaxante ou brillante . ✔ Dans tous les cas la perception dépend de l'âge, du sexe, et de l'environnement de la personne. ➔ Deux personnes n'auront jamais la même impression à propos d'une seule couleur physique. ➔ Les gens diffèrent même en termes de sensibilité à la gamme de lumière visible.
  • 35. 35 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Vision Humaine ✔ La lumière est un moyen de médiation de la perception des objets qu'elle illumine. ➔ Lorsque nos yeux sont stimulés par la lumière reflétée par un objet, nous percevons et reconnaissons la lumière sous forme d'une couleur. ✔ C’est une lumière sous forme d’un type spécifique d'onde électromagnétique : ➔ similaire aux ondes radio utilisées dans la télédiffusion et la télécommunication. ✔ Les caractéristiques de la lumière changent en fonction de la longueur des ondes électromagnétiques.
  • 36. 36 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Vision Humaine ✔ Les ondes électromagnétiques couvrent des ondes radio, à la lumière visible, et jusqu'aux rayons gamma. ✔ L'énergie véhiculée par des ondes, est de l'ordre de 400nm (bleu)- 700 nm (rouge). ✔ La Commission Internationale de l'Eclairage (CIE) définit la "lumière visible" comme étant constituée des longueurs d'ondes situées entre 380 nm et 780 nm.
  • 37. 37 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Vision Humaine ✔ Les humains perçoivent deux types de couleurs : ✔ la couleur d'une source dégageant de la lumière s'appelle la couleur lumière ✔ et la couleur d'un objet illuminé par une source de lumière s’appelle la couleur d'objet.
  • 38. 38 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Vision Humaine ✔ La lumière en réalité est un mélange de spectre visible de la lumière visible. ➔ Les humains perçoivent la lumière du soleil de midi comme étant de la "lumière blanche ". ➔ Cette lumière blanche est en réalité un mélange de spectre de couleur visible comprise entre 400 nm (bleu) 500 nm (vert) et 700 nm (rouge). ✔ Un objet ne parait coloré que parce que s’il est éclairé par une source lumineuse. ➔ La couleur que nous percevons comme étant la couleur d’objet c'est en réalité la lumière reflétée par cet objet.
  • 39. 39 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Vision Humaine ✔ Lorsque la lumière blanche traverse une pomme rouge : ➔ Elle absorbe les spectres de lumière visible comprise entre 400 nm (bleu), 500 nm (vert). ➔ Elle réfléchie que le spectre visible de longueur d’onde 700 nm (rouge). ➔ Quelle est la couleur d’une pomme la nuit en absence de lumière ?
  • 40. 40 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Vision Humaine ✔ L'oeil est l'organe de base de la vision qui comporte un ensemble d'éléments destinés à: ➔ recevoir la lumière reflétée sur un objet, ➔ former l'image des objets perçus, ➔ traiter les informations recueillies.
  • 41. 41 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Vision Humaine ✔ Lorsque la lumière reflétée sur un objet entre dans l'oeil humain, elle réagit avec les photorécepteurs (nerfs optiques) de la rétine qui sont : ➔ Les bâtonnets : sensibles à la lumière et à l'obscurité ➔ Les cônes : sensibles aux longueurs d'ondes du rouge, du vert et du bleu. ✔ La rétine envoie ensuite des signaux via le nerf optique jusqu'au cerveau.
  • 42. 42 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Vision Humaine ✔ Les bâtonnets : ➔ sont responsables de la vision nocturne et possèdent un maximum de sensibilité vers 510 nm. ➔ Leur sensibilité est liée à un colorant, qui blanchit à la lumière du jour, expliquant par là leur insensibilité pendant la nuit. ➔ Les bâtonnets ne permettent pas de déterminer les couleurs. ✔ Les cônes : ➔ fournissent une réponse chromatique (couleur), grâce à des pigments sensibles aux longueurs d'ondes du rouge, du vert et du bleu.
  • 43. 43 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Vision Humaine
  • 44. 44 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Vision Humaine ✔ Le mode de fonctionnement des nerfs optiques explique bien la perception de la couleur : ➔ L'absence de perception de la couleur ou le daltonisme se produisent lorsque la fonction de ces nerfs est affectée. ➔ La variation de la perception de la couleur est déterminée par la variation du fonctionnement de ces nerfs optiques : - Certains animaux ne peuvent voir dans l'obscurité, alors que d'autres voient très bien dans ces conditions. -Les chiens et les chats ne perçoivent pas les couleurs.
  • 45. 45 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Illusion ✔ Le système visuel humain sert souvent de référence. Cependant, il ne constitue pas un système parfait et il peut être facilement piégé comme le montrent les exemples suivants :
  • 46. 46 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Illusion
  • 47. 47 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Illusion
  • 48. 48 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Les espaces de couleur : ✔ On distingue deux types de synthèses de couleurs : ➔ Synthèse addictive ➔ Synthèse soustractive ✔ Systhèse addictive : ➔ Combinaison de trois faisceaux lumineux de couleurs rouge, verte et bleue à proportions variées pour produire la plus part des couleurs ➔ Cette méthode est appelée "additive" parce que la somme de ces trois couleurs de base (à intensité égale) donne du blanc. ➔ On nomme parfois les couleurs rouge,verte et bleue les primaires addictives
  • 49. 49 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Les espaces de couleur : ✔ Systhèse soustractive : ➔ Uilisation de trois couleur de base le cyan, le magenta et le jaune pour supprimer certaines couleurs de la couleur blanche et obtenir une couleur souhaitée. ➔ chacun des trois couleurs de base absorbe les ondes d'une primaire additive (le rouge, le vert ou le bleu) et réfléchit les ondes des deux autres. - le jaune absorbe les ondes bleues et réfléchit les ondes rouges et vertes. - le magenta réfléchit les ondes rouges et bleues au détriment des ondes vertes. ➔ On nomme parfois les couleurs cyan,magenta et jaune les primaires soustractive.
  • 50. 50 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Les espaces de couleur : ✔ On appelle espace de couleurs la repprésentation mathématique d'un ennsemble de couleurs . ✔ Il en existe plusieurs espaces de couleurs , parmi lesquels les plus connus sont : ➔ Le codage RGB ➔ Le codage CMYK ➔ Le codage HSV ➔ Le codage CIE ➔ Le codage YIV ➔ Le codage YCrCb ➔ Le codage YIQ
  • 51. 51 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Les espaces de couleur : ✔ Le codage RGB : ➔ Le codage RGB mis au point par la Commission Internationale de l'Eclairage (CIE) est basé sur la synthèse addictive. ➔ Il estt utilisé par l'ecran d'un ordinateur ou de télévision. ✔ Le codage CMYK : ➔ Il est basé sur la synthèse soustractive (Cyan , Magenta , Jaune et noir pur ou en français CMJN ). ➔ Il est utilisé pour produire la couleur en imprimerie .
  • 52. 52 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Les espaces de couleur :
  • 53. 53 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Les espaces de couleur : ✔ Le codage HSV : ➔ Le modèle HSV (Hue, Saturation, value, ou en français TSV), est un modèle de représentation proche de la perception humaine mis au point pour permettre une gestion interactive rapide d'une couleur. ➔ Contrairement au modèle RGB, le modèle HSV plus facile à utiliser lors du réglage ou l'éclaircissement d’une couleur. ➔ Le modèle HSV consiste à décomposer la couleur selon des critères physiologiques : - La teinte (en anglais Hue), correspondant à la perception de la couleur (mauve ou orange, etc.), - La saturation, décrivant la pureté de la couleur, c'est-à-dire son caractère vif ou terne (neuf ou délavé),
  • 54. 54 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Les espaces de couleur : ✔ Le codage HSV : - la valeur, indiquant la quantité de lumière de la couleur, c'est-à- dire son aspect clair ou sombre. ➔ La teinte décrit la nuance de couleur et où cette couleur se trouve dans le spectre de couleur Rouge, jaune, etc . ➔ La saturation est un pourcentage qui s'étend de 0 à 100. Un rouge pur qui n'a aucun blanc est 100% saturé. ➔ La valeur, comme la Saturation, est un pourcentage qui va de 0 à 100. Quand la teinte est rouge et la valeur est élevée, la couleur semble brillante/lumineux. Quand la valeur est basse, elle semble foncée.
  • 55. 55 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Les espaces de couleur : ✔ Le codage CIE : ➔ Enfin en 1976, la CIE développe le modèle colorimétrique La*b* (aussi connu sous le nom de CIE Lab), dans lequel une couleur est repérée par trois valeurs : - L, la luminance, exprimée en pourcentage (0 pour le noir à 100 pour le blanc) - a et b deux gammes de couleur allant respectivement du vert au rouge et du bleu au jaune avec des valeurs allant de -120 à +120. ➔ Le mode Lab couvre l'intégralité du spectre visible par l'oeil humain et le représente de manière uniforme. ➔ PhotoShop utilisent ce mode pour passer d'un modèle de représentation à un autre.
  • 56. 56 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Les espaces de couleur : ✔ Le codage CIE :
  • 57. 57 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Les espaces de couleur : ✔ Le codage YIV : ➔ Il s'agit du format utilisé dans le standard allemand PAL (Phase Alternation by Line) ➔ Le paramètre Y représente la luminance (c'est-à-dire l'information en noir et blanc). ➔ U et V permettent de représenter la chrominance, c'est-à-dire l'information sur la couleur. ➔ Y = 0,30RE + 0,59GE + 0,11BE ➔ U = 0,493(BE - Y) ➔ V = 0,877(RE - Y)
  • 58. 58 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Les espaces de couleur : ✔ Le codage YCrCb : ➔ Il s'agit du format utilisé dans le standard français SECAM (SEquentiel Couleur A Mémoire). ➔ Le paramètre Y représente la luminance (c'est-à-dire l'information en noir et blanc). ➔ Cr et Cb permettent de représenter la chrominance, c'est-à-dire l'information sur la couleur. ➔ Y = 0,30RE + 0,59GE + 0,11BE ➔ Cr = -1.9(RE - Y) ➔ Cb = 1,5(BE - Y)
  • 59. 59 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Les espaces de couleur : ✔ Le codage YIQ : ➔ Il s'agit du format utilisé dans le standard NTSC (National Television Standards Committee) ➔ Le paramètre Y représente la luminance (c'est-à-dire l'information en noir et blanc). ➔ I et Q permettent de représenter la chrominance, c'est-à-dire l'information sur la couleur. ➔ Y = 0,30RF + 0,59GF + 0,11BF ➔ I = 0,74(RF - Y) - 0,27(BF – Y) ➔ Q = 0,48(RF - Y) + 0,41(BF - Y
  • 60. 60 PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH  Les espaces de couleur : ✔ Les primaires et le blanc de référence utilisés dans les téléviseurs dépendent des normes imposées par les standards de chaque pays. Le standard NTSC utilise l’illuminant C comme blanc de référence alors que les standards PAL et SECAM utilisent l’illuminant D65. ✔ Les téléviseurs américains répondent à la norme NTSC qui utilise les primaires [RF], [GF], [BF] fixées par la FCC (Federal Communications Commission). ✔ Les téléviseurs européens répondent à la norme allemande PAL fixée par l’EBU (European Broadcasting Union ou Union Européenne de Radio-télévision (UER)), ou à la norme française SECAM.
  • 61. 61 Chapitre 4 :Chapitre 4 : IMAGE NUMERIQUEIMAGE NUMERIQUE
  • 62. 62 IMAGE NUMERIQUEIMAGE NUMERIQUE  Définitions prémliminaires  Image Matricielle  Numérisation
  • 63. 63 IMAGE NUMERIQUEIMAGE NUMERIQUE  Définitions préliminaires : ✔ Une image : c'est une représentation bi-dimentionnelle (2-D) d'une scène tri-dimentionnelle (3-D)
  • 64. 64 IMAGE NUMERIQUEIMAGE NUMERIQUE  Définitions préliminaires : ✔ Une image numérique est une représentation approchée adaptée à des traitements informatiques .En fait , toutes les données correspondant aux informations contenues dans l'image sont structurées d'une certaine façon afin de permettre leur stockage. ✔ Une image numérique en elle même est en fait un concept tout à fait abstrait : ➔ manipulation de données numériques. ➔ ces données ne trouve une signification à nos yeux qu'à la visualisation lorsque l'on utilise un logiciel adéquat.
  • 65. 65 IMAGE NUMERIQUEIMAGE NUMERIQUE  Définitions préliminaires : ✔ On distingue deux types d'images numériques : ➔ Images matricielles ➔ Images vectorielles ✔ Une image matricielle est en faite une matrice de données numériques dont chaque position (x,y) associe une couleur afin de visualiser l'image à l'ecran. ✔ Une image vectorielle est une représentation des données de l'images par des formes géométriques qui vont pouvoir être décrites d'un point de vue mathématique.
  • 66. 66 IMAGE NUMERIQUEIMAGE NUMERIQUE  Définitions préliminaires : ✔ Une image vectorielle est indépendante du facteur échelle car elle est définie par des coordonnés numériques et des formules mathématiques. Zoom
  • 67. 67 IMAGE NUMERIQUEIMAGE NUMERIQUE  Définitions préliminaires : ✔ Etant définie par une dimension fixe et d'un nombre de couleurs fixe , une image matricielle est en fait dépendante du facteur échelle dont le changement peut provoquer par suite une perte de qualité . Zoom
  • 68. 68 IMAGE NUMERIQUEIMAGE NUMERIQUE  Définitions préliminaires : ✔ Traitement d'image : ensemble de méthodes et de techniques permettant de : ➔ modifier l'image pour améliorer son aspect visuel, ➔ la préparer à la transmission par voie télématique, ➔ la préparer à l'extraction d'une mesure, ➔ extraire des informations pertinentes.
  • 69. 69 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ Les images matricielles sont constituées de pixels de différentes couleurs disposés en lignes et en colonnes. ✔ Elles sont définies par leurs dimensions en nombre de pixels ainsi que par le nombre de couleurs possibles. ✔ Chaque pixel possède une adresse numérique et est stocké dans une zone de mémoire appelée matrice. ✔ Les images matricielles dépendent de la résolution : ➔ Elles comportent un nombre fixe de pixels qui représentent les données de l'image.
  • 70. 70 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ La représentation discrète est ➔ Bidimentionnelle pour les images [1..L] x [1..C] -> [1,M]p (L lignes, C colonnes) ➔ Tridimentionnelle pour les vidéos [1..L] x [1..C] x [1..T] -> [1,M]p (vidéo de T im.) L : nombre de lignes C : nombre de colonnes [1,M]p :M+1 valeurs d'intensité , sur un espace a p dimensions (p=nombre de plans )
  • 71. 71 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ Les pixels sont les plus petits éléments employés par les moniteurs et imprimantes d'ordinateur pour représenter des caractères, des graphiques et des images. ✔ Une image numérique est formée d'une grille de petits carrés appelés pixels. ✔ Un pixel est : ➔ une unité de base de l''image ➔ un pas de discrétisation
  • 72. 72 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ La dynamique d'une image correspond à l'étendu de la gamme de couleurs que peuvent prendre les pixels image. ✔ La dynamique d’une image est liée au nombre d'octets utilisés pour stocker l'information couleurs. ✔ La dynamique de l’image détermine si une image est : ➔ binaire, ➔ en niveau de gris, ➔ en fausses couleurs (couleurs indexées), ➔ Ou en couleurs « vrai ».
  • 73. 73 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ Une image binaire est une image ayant deux couleurs possibles généralement noir est blanc. ✔ Dans ces images, un seul bit suffit à représenter chaque pixel (1=blanc ou 0=noir). ✔ Si I est une image binaire, alors : ➔ (p,M) = (1,1) ➔ p=1 à un seul plan = une seule matrice. ➔ M=1 à m+1 valeur d’intensité.
  • 74. 74 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ Une image en niveaux de gris est appelée dans le langage courant image en noir et blanc. ✔ Dans ce type d'image , chaque pixel est codé sur 8 bits et contient un seul nombre qui correspond à la nuance du gris de l'image. ✔ Les nuances de gris couvrent tout le spectre du blanc au noir, en une échelle de 256 nuances. ✔ Si I est une image en niveaux de gris alors (p,M)=(1,255).
  • 75. 75 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : 255 0
  • 76. 76 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ Les images en couleur indexé sont créées à l'aide d'une palette limitée attachée à cette image et qui comprend n couleurs différentes. ➔ N=512; ➔ N=256; ✔ La donnée correspondant à chaque pixel consiste en un indice qui pointe vers une couleur précise dans la palette. ✔ Ce format ne convient pas à des images en couleurs réelles, à cause du nombre restreint de couleurs et de palettes différentes qu'il est possible d'utiliser. ✔ Si I est une image en couleur indexée, (p,M) = (1,n-1). ➔ n = taille de l'indexe
  • 77. 77 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : Image 1 Image 2 Palette 1 (256 couleurs) Palette 2 (256 couleurs)
  • 78. 78 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ Une l'image en « vrai couleur » se décompose en trois plans fondamentaux que sont le Rouge, le Vert et le Bleu. ✔ Il s'agit d'une appellation trompeuse : ➔ on est dans un monde numérique (discret, fini) qui ne peut pas rendre compte de la réalité (infinie). ✔ Une image couleur comporte pour chaque pixel une information sur sa composition en Rouge, Vert et Bleu : ➔ toute couleur peut, être obtenue par un mélange de ces 3 couleurs fondamentales. ➔ Chacune de ces couleurs fondamentales RVB dispose de 256 nuances possibles soit 256*256*256 possibilités= 16 millions de possibilités.
  • 79. 79 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ Si I est une image couleur, alors (p,M) = (3,255) Une image couleur Les trois plans RVB Chaque plan a 256 nuances de couleurs Matrice R Matrice V Matrice B
  • 80. 80 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : Taille de l ’image = Largeur × Hauteur (octets) 640 × 480 octets = 307.200 octets
  • 81. 81 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ La résolution est une mesure de la clarté ou du niveau de détail et de finesse d'une image numérique. ✔ La définition complète du terme résolution recouvre les notions de résolution spatiale et de résolution en luminance. ✔ Dans l'usage courant, le terme résolution est souvent employé pour parler de la résolution spatiale uniquement. ✔ Plus la résolution,est grande, plus l'image est détaillée, et plus le fichier correspondant est volumineux. ✔ la résolution spatiale s'exprime en pixels au pouce et souvent abrégé « dpi » pour dots per inch.
  • 82. 82 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : +Résolutionspatiale-
  • 83. 83 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ La résolution en luminance, ou nombre de bits, se rapporte à l'échelle de gris ou aux couleurs possibles de chaque pixel.
  • 84. 84 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ La résolution en luminance, détermine le nombre de nuances ou de couleurs possibles pour chaque pixel. ✔ Plus le nombre de bits est grand, plus le nombre de couleurs possibles est élevé. + Résolution en luminance - vraie couleur 24 bits Fausse couleur 8 bits en niveau de gris 24 bits binaire 2bits
  • 85. 85 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : + Résolution en luminance -
  • 86. 86 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ Un histogramme est un graphique statistique permettant de représenter la distribution des intensités des pixels d'une image, c'est-à-dire le nombre de pixels pour chaque intensité lumineuse. ✔ Par convention un histogramme représente le niveau d'intensité en abscisse en allant du plus foncé (à gauche) au plus clair (à droite). C’est la fréquence d’apparition d’une valeur de pixel Histo(i)=Card{Pixel(x,y)=i}
  • 87. 87 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ Exemple d'histogramme d’une image au niveau de gris: dynamique [0..255]
  • 88. 88 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ Exemple d'histogramme d’une image au niveau de gris: dynamique [0..255]
  • 89. 89 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ Pour les images en vrai couleur plusieurs histogrammes sont nécessaires. Par exemple pour une image codée en RGB : ➔ un histogramme représentant la distribution de la luminance, ➔ trois histogrammes représentant respectivement la distribution des valeurs respectives des composantes rouges, bleues et vertes.
  • 90. 90 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ Les contours sont les lieux de variations significatives de l'information au niveaux de gris. ✔ Un contour est une transition marquée entre deux régions ayant chacune une luminosité distincte. Image au niveau de gris Image contour
  • 91. 91 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ Les contours sont les lieux de variations significatives de l'information au niveaux de gris. ✔ Une texture est une répétition spatiale : ➔ d'un même motif ➔ dans différentes directions de l'espace. ✔ La texture décrit : ➔ un aspect homogène de la surface, ➔ une information visuelle qui permet de la décrire qualitativement a l'aide des adj. : grossière, fine, lisse, tachetée, granuleuse, marbrée, régulière ou irrégulière
  • 92. 92 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : bois bulles canevas lierre herbe laine eau sable
  • 93. 93 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ La luminance (la brillance) est la quantité d’énergie (lumière) reçue par unité de surface (pixel) nommé dans la pratique Intensité lumineuse I. ✔ Pour augmenter la luminosité d’une image deux solutions possibles : ➔ on ajoute à chacun des pixels de l'image une même constante n dans les différentes composantes de couleurs R, G et B. ➔ on calcul la composante luminosité f(x,y) de l’image, puis pour chaque pixel de f(x,y) on ajoute une constante n. I= ∬ yx I x,ydxdy ∬ yx dxdy = 1 LC ∑ x=0 L−1 ∑ y=0 C−1 f x,y
  • 94. 94 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : n=0 n=+80n=-80
  • 95. 95 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ Le contraste est une mesure relative aux différences de luminosités dans les images. 2 1 0 1 0 )),(( 1 Iyxf NM C N x M y −= ∑∑ − = − =
  • 96. 96 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ Un format d'image comprend en général un en-tête qui contient des données sur l'image (taille de l'image en pixels par exemple) suivie des données de l'image. ✔ Il existe plusieurs formats d'image : ➔ Bmp ➔ Jpg ➔ Gif ➔ Png ➔ Tiff ➔ ...
  • 97. 97 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ Caractéristiques intrinsèques à un format : ➔ Le statut par rapport aux brevets : La plupart des formats sont libres mais certains sont ”propriétaires”, comme le format GIF. ➔ Le nombre de couleurs supportées ➔ La compression des données : - On distinguera les compressions sans pertes, qui compactent l’information des intensités sans changer leur valeurs, et les compressions avec pertes, comme JPEG, o`u le contenu est altéré. ➔ Transparence : La caractéristique de transparence permet de spécifier que l’une des couleurs de la palette peut être ignorée lors de l’affichage de l’image sur le moniteur (Par extension : alpha chanel).
  • 98. 98 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ Caractéristiques intrinsèques à un format : ➔ Entrelaçage : C’est un mécanisme qui permet de faire apparaître plus rapidement les images à l’écran, en affichant une version basse résolution raffinée au fur et à mesure du chargement. ➔ Animation : Certains formats permettent de stocker dans le même fichier plusieurs images qui représentent une animation. C’est le cas du format GIF.Des navigateurs, comme Netscape, sont alors capables d’afficher ce fichiers comme une séquence jouée. ➔ Les usages ! ! internet ? archivage ? calcul scientifique ?
  • 99. 99 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ JPEG (Joint Photo Expert Group): ➔ Ce format est la représentation d'une norme ISO. Statut par rapport aux brevets . ➔ Ce format permet une représentation en vraies couleurs (16 millions). ➔ La compression utilisée est la compression avec perte avec un taux qui varie entre 1% (qualité la meilleure) et 99 %(qualité moins bonne). ➔ Ce format ne supporte pas la transparence car il est basé sur une compression avec perte. ➔ Ce format supporte l'entrelaçage.
  • 100. 100 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ JPEG (Joint Photo Expert Group): ➔ Ce format ne supporte pas les animations. ➔ Il est utilisé dans le cadre de la représentation de prédilection: les images "naturelles" avec des grands dégradés de couleurs (transition douce de couleurs). ➔ Il est utilisé au niveau de l'internet .
  • 101. 101 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ JPEG 2000 (Joint Photo Expert Group 2000): ➔ Ce format permet , dans une zone définie, des manipulations géométriques tels que la rotation, la permutation du paysage par rapport au portait ➔ Permet de définir une ou plusieurs zones d'une image afin d'en préserver la qualité (dégrader les régions les moins stratégiques de l'image tout en gardant intact la zone sélectionnée). ➔ Permet d'incorporer des méta-données.
  • 102. 102 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ JPEG 2000 (Joint Photo Expert Group 2000) ➔ La compression est basée sur un système d'ondelette qui permet une compression plus importante avec une perte de qualité imperceptible à l'oeil nu). ➔ Ce format permet une représentation en vraies couleurs (16 millions) et ne gère pas la transparence ➔ Usage : internet ...
  • 103. 103 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ PNG (Portable Network Graphics) ➔ Ce format est l'émanation de recommandations du consortium W3 (1996). ➔ Il supporte dews images vraies couleurs ,niveaux de gris et 8 bits indexées. ➔ Il est basé sur une compression sans perte réputée par son efficacité. ➔ Il supporte la transparence . ➔ L'affichage entrelacé est possible aussi . ➔ Il est utilisé partout et surtout internet et ne supporte pas les animations.
  • 104. 104 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ GIF (Compuserve Graphics) ➔ Ce format supporte 256 couleurs avec palette. ➔ La compression est sans perte mais dépend de plusieurs facteurs : - l'existence de zones homogènes. - de l'orientation de l'image: la lecture des données de l'image se fait en commençant par le pixel en haut et à gauche et se fait en ligne.
  • 105. 105 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ GIF (Compuserve Graphics) ➔ Ce format supporte la transparense. ➔ L'entrelaçage diffère selon le navigateur :Ligne 1,9,17 puis lignes  5, 13 puis ligne 3, 7, 11, 15 et enfin ligne 2, 4, 6, 8, 10, 12, 14, 16 . ➔ Les animations sont possibles. ➔ Ce format est utilisé au niveau des logos et dans tout ce qui contient des peu de nuances de couleurs et avec une transition brusque. ➔ Il est utilisé aussi au niveau d'internet.
  • 106. 106 IMAGE NUMERIQUEIMAGE NUMERIQUE  Image Matricielle : ✔ TIFF (TAG IMAGE FILE FORMAT) ➔ Ce format supporte 16 millions de couleurs. ➔ multiples versions qui rendent sa diffusion difficile! ➔ Il utilise une compression sans ou avec perte(au choix). ➔ Il ne supporte ni la transparençe ni l'entrelaçage. ➔ Ce format ne supporte pas les animations. ➔ Utilisation possible partout sauf sur internet car ill est tres volumineux .
  • 108. 108 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ La numérisation d'une image est obtenue par l'intermédiaire d'un capteur : ➔ Le signal lumineux est transmis à une cellule photo-sensible appelée CCD (Charged Coupled Device) qui transforme l'énergie (lumière) en une série d'impulsions électriques. ✔ et aussi d'un numériseur (carte de numérisation intégrée ou non au capteur) qui transforment un signal optique en un signal numérique: ➔ Le signal électrique est repris par un convertisseur analogique- digital qui transforme les données continues en données numériques codées sur 1, 8, 16 ou 24 bits. ➔ Le codage utilisé définit le type d'images (noir et blanc, niveaux de gris ou couleur).
  • 109. 109 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ L'obtention d'une image numérique nécessite deux processus : ➔ Echantillonnage spatial de l'image (sampling) : - Discrétisation dans le temps :Découpage en « tranche » (pavage) : définition de la résolution spatiale de l’image (nombre pixels en horizontal et en vertical). ➔ Quantification du niveau de luminance (quantization): -Définition de la résolution de luminance :-Définition de la résolution de luminance : -Choix de la précision de représentation de chaque pixel-Choix de la précision de représentation de chaque pixel. -Précision du nombre de bits utilisé pour le codage de chaque-Précision du nombre de bits utilisé pour le codage de chaque échantillon (pixel).échantillon (pixel).
  • 111. 111 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : Scène Echantillonnage 1 Pixel (3bits) 1 1 0 0 1 2 3 4 5 6 7 Pixel Quantification
  • 112. 112 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ Une image estt une matrice M*N ✔ Une image est une fonction F(x,y)
  • 113. 113 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : Image 1024x1024, codée sur 8 bits, sous- échantillonnée jusqu’à une taille de 32x32 pixels. Le nombre de niveau de gris est gardé à 256.
  • 114. 114 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : a)1024x1024x8 b)512x512 ré-échantillonné en 1024*1024 par duplication de lignes et . c jusqu’à f)images 256x256, 128x128, 64x64, 32x32 sous échantillonnées à partir de a.
  • 115. 115 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ Le PAVAGE : ➔ Définition : Une abstraction mathématique de présentation des pixels sous forme d’une décomposition régulière dans un plan euclidien avec une même forme élémentaire. ➔ Principe : Lors du processus de digitalisation, le signal lumineux transmis par les capteur (CCD) est projeté dans un espace euclidien partitionner de façon régulière. ➔ Une répartition sous forme d’un ensemble connexe de points appelés pixels de telle sorte que deux pixels voisins ne peuvent s'intersectée que sur leur bord, et que l'ensemble des pixels recouvre le plan.
  • 116. 116 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ Les images sont habituellement plaquée sur des pavés de type polygones réguliers : ✗ Triangulaire, ✗ Carré, ✗ Hexagonal.
  • 117. 117 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ A tout pavage du plan euclidien est associé un maillage. ✔ Un maillage est un graphe non-orienté dont les nœuds sont les points centres des pavés qui se touchent par un coté.
  • 118. 118 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ Il y a une dualité entre maillage et pavage : ➔ à un pavage carré correspond un maillage carré. ➔ au pavage hexagonal correspond une maille triangulaire. ➔ au pavage triangulaire est associé le maillage hexagonal. ✔ Le maillage est obtenu de manière implicite par échantillonnage de l’image analogique lors de la numérisation. ✔ La plupart des capteurs échantillonne en maillage carré.
  • 119. 119 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ A Tout pixel se code comme un couple (i,j) d'entiers. ➔ Dans un maillage carré, tout pixel a 2 types de voisins, à savoir ses 4 voisins selon les axes, et ses 4 voisins selon les diagonales. Deux pixels p et q sont dits : ✗ 4-adjacents s'ils sont voisins suivant un axe. ✗ 8-adjacents s'ils sont voisins suivant un axe ou une diagonale.
  • 120. 120 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ Etant donné un pixel (i,j), en maillage carré les pixels 4-adjacents à (i,j) sont : ➔ (i+1,j), ➔ (i-1,j), ➔ (i,j+1), ➔ et (i,j-1) ✔ Pour les 8-adjacences les mêmes, plus (i+1,j+1), (i+1,j-1), (i-1,j+1). (i,j) (i,j) (i+1,j+1) (i-1,j-1)
  • 121. 121 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ Dans le cas d’un maillage carré le pixel (i,j) est 4-adjacent à (i',j') si et seulement si :|i-i'| + |j-j'| = 1 ✔ (i,j) est 8-adjacent à (i',j') si et seulement si :max(|i-i'|,|j-j'|) = 1 (i,j) (i,j-1) (i-1,j) (i,j+1) (i+1,j)
  • 122. 122 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ Dans une configuration de maillage hexagonal le pixel central a 6 voisins tous situés à égale distance de lui. ✔ NB. Un passage d'une maille carrée à une maille hexagonale, est possible grâce à un simple calcul, effectué par certains logiciels d'analyse d'images.
  • 123. 123 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ Soit k = nombre d’adjacence choisie (k=4 ou k=8 ou k=6) : ✔ Un k-chemin du pixel p au pixel q est une suite x0 , ..., xn de pixels tels que : ➔ x0 = p et xn = q (où n est un entier naturel) ➔ pour i = 0, ..., n-1, xi est k-adjacent à xi+1 ➔ n est la longueur du chemin ✔ Un chemin de longueur n comporte donc n+1 pixels et n transitions
  • 124. 124 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ La k-distance dk (p,q) entre 2 pixels p et q est la longueur min d'un k-chemin de p à q. ✔ Il s'agit bien d'une distance dans le sens qu'elle vérifie les axiomes suivants : ➔ dk (p,p) = 0, (identité ), ➔ pour p différent de q on a dk (p,q) > 0 (positivité), ➔ dk (p,q) = dk (q,p) (symétrie) ➔ dk (p,r) est plus petit ou égal à dk (p,q) + dk (q,r) (inégalité triangulaire).
  • 125. 125 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ Dans le cas du maillage carré il est facile de voir que si p et q sont de coordonnées (i,j) et (i',j') respectivement, alors : ➔ Distance de MANATHAN d4 (p,q) = |i-i'| + |j-j'| ➔ Distance de l’ECHIQUIER d8 (p,q) = max(|i-i'|,|j-j'|) ➔ Distance EUCLIDIENNE (p,q) = [(xp - xq)2 + (yp - yq)2 ]1/2
  • 126. 126 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ Dans une configuration de maillage carré le pixel central a 8 voisin : ➔ 4 directs, tous situés à la distance d1 du pixel central. ➔ 4 indirects, tous situés à la distance d2 = d1 du pixel central. d2 d1 2
  • 127. 127 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ Changement d'échelle : Approximation d’une fonction sur in intervalle donné. ➔ Intercalation dans une suite de valeurs connu (données d’image) une ou plusieurs valeurs calculées par une fonction. ✔ Exemple de changement d’échelle : Zoom + ✔ Deux types d’interpolation : ➔ Interpolation du plus proche voisin par Réplication des Pixels : Copie chaque colonne et chaque ligne. ➔ Interpolation avec les 4 voisins ✗ Bilinéaire ✗ Bicubique ✗ Sinc
  • 128. 128 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ Zoom par réplication :  Zoom
  • 129. 129 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ Zoom par interpolation: 
  • 130. 130 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : Interpolation linéaire
  • 131. 131 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : Interpolation linéaire P(x’,y’) = (1-dx) (1-dy) P(x,y) + (dx) (1-dy) P(x+1,y) + (1-dx)(dy) P(x,y+1) + (Px) (Py) P(x+1,y+1)
  • 132. 132 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : Interpolation bicubique
  • 133. 133 IMAGE NUMERIQUEIMAGE NUMERIQUE  Numérisation : ✔ Bruit : phénomène de brusque variation de l’intensité d’un pixel par rapport à ses voisins. ✔ Provenance : ➔ l’éclairage, ➔ l’objet, ➔ La transmission, ➔ l’optique de la caméra, ➔ Le capteur CCD, ➔ l’échantillonnage, ➔ Le stockage de l’image
  • 134. 134 Chapitre 4 :Chapitre 4 : SON NUMERIQUESON NUMERIQUE
  • 135. 135 SON NUMERIQUESON NUMERIQUE  Définitions préliminaires  Oreille et cerveau humain  Numérisation  Compression  Principaux formats
  • 136. 136 SON NUMERIQUESON NUMERIQUE  Définitions préliminaires ✔ Qu’est-ce que le son ? nous désignons à la fois le mot son : ➔ un phénomène physique vibratoire complexe ➔ la sensation auditive engendrée par ce phénomène ✔ Qu’est-ce que le phénomène vibratoire ? un son naît (en général) de la déformation d’un corps. Cette déformation engendre une vibration mécanique qui va à son tour déformer le milieu dans lequel se trouve le corps. Ainsi, la vibration va se propager de proche en proche, selon une onde dite sonore ou acoustique. ➔ Exemple : la membrane d’un instrument à percussion déformée par la choc du maillet ou la corde d’un violon frottée par l’archet.
  • 137. 137 SON NUMERIQUESON NUMERIQUE  Définitions préliminaires ✔ Transmission du son ➔ La vibration de l’air constitue un phénomène périodique car elle se reproduit identiquement à elle-même au bout d’un certain temps (ou période). ➔ La période (T, exprimée en secondes) désigne le temps nécessaire à un cycle vibratoire complet, c’est-à-dire une oscillation. ➔ La fréquence (f, exprimée en Hertz) définit le nombre de périodes par unité de temps : il s’agit du nombre d’oscillations par seconde. ✗ Relation entre T et f : la fréquence est l’inverse de la période plus la période est petite, plus la fréquence est grande f (en Hz) = 1 / T (en secondes)
  • 138. 138 SON NUMERIQUESON NUMERIQUE  Définitions préliminaires ➔ Exemple : propagation d’une onde provoquée par la chute d’une pierre lancée sur un plan d’eau Temps (s) amplitude 0 +A - A période Fréquence (= 3Hz) 1 s
  • 139. 139 SON NUMERIQUESON NUMERIQUE  Définitions préliminaires ✔ Phénomènes sonores ➔ On considère généralement que la perception auditive humaine s’étale (dans le meilleur des cas) entre 20 Hz et 20 kHz. ➔ La fréquence est un paramètre essentiel des phénomènes sonores car c’est d’elle que dépend la hauteur du son perçue : ➔ Exemples : ✗ la fréquence de 20 kHz (= 20 000 périodes/s) est considérée comme la limite de la perception humaine dans l’extrême aigu, mais cette perception des fréquences élevées se dégrade avec l’âge et la fatigue auditive ✗ La fréquence de 20 Hz (= 20 périodes/s) est quant à elle considérée comme la limite inférieure des la perception humaine dans l’extrême grave ➔ Cette fourchette de fréquences définit donc la bande de fréquences ou bande passante utile d’un système de reproduction sonore de haute qualité qui doit s’efforcer de reproduire le plus linéairement possible
  • 140. 140 SON NUMERIQUESON NUMERIQUE  Définitions préliminaires ✔ Exemple (bandes passantes) Système Bandes passante(HZ) Téléphone 300 – 4 000 Radio AM 50 – 6 000 Radio FM 50 – 15 000 Magnétophone K7 40 – 15 000 CD audio et matériel professionnel 20 – 20 000
  • 141. 141 SON NUMERIQUESON NUMERIQUE  Définitions préliminaires ✔ Signal sonore ➔ On représente fréquemment de manière simplifiée un signal sonore par une courbe sinusoïdale (ou harmonique en sinus/cosinus) ➔ En fait, une telle sinusoïde ne représenterait qu’un son dit pur défini par une seule fréquence : or, les sons audible ne sont pas purs, ie. complexes et constitués d’une combinaison de fréquences ➔ En effet, à la fréquence fondamentale qui définit la hauteur sonore viennent s’ajouter une série de signaux harmoniques ➔ C’est à J. Fourrier qu’il revient d’avoir démontré mathématiquement au début du XIXe siècle que tout phénomène périodique pouvait être décomposé en une série de sinusoïdes élémentaires dont les fréquences sont des multiples entiers de la fréquence la plus grave, dite fondamentale.
  • 142. 142 SON NUMERIQUESON NUMERIQUE  Définitions préliminaires ✔ Signal sonore ➔ Exemple : Appuyer la touche d’un piano correspondant au La3 , nous obtenons un son complexe constitué par l’addition à la fréquence fondamentale (440 Hz) et à des amplitudes variables de fréquences dites harmoniques à des valeurs multiples (x2, x3, …) ➔ La Conférence Internationale de Londres en 1953 a fixé la hauteur absolue du La3 à 440 Hz, pour servir de base à l’accord des instruments (musiques ou sonores).
  • 143. 143 SON NUMERIQUESON NUMERIQUE  Oreille et cerveau humain ✔ Le nombre et l’amplitude des diverses fréquences harmoniques sont spécifiques à chaque source sonore et déterminent le timbre propre de cette source. ✔ Ce sont donc les harmoniques caractéristiques de chaque source qui permettent à l’oreille et au cerveau humains de distinguer et de reconnaître des sources sonores différentes : ➔ Le timbre d’une voix émettant à une fréquence fondamentale de 400 Hz sera perçu comme différent d’une autre voix émettant à la même fréquence. ➔ Le son d’une guitare ne sera pas confondu avec celui d’un piano, même si les deux instruments jouent la même séquence de notes musicales
  • 144. 144 SON NUMERIQUESON NUMERIQUE  Oreille et cerveau humain ✔ L'oreille absolue, par opposition à l'oreille relative, est la faculté pour un homme de pouvoir identifier une note musicale en l’absence de référence. ➔ En occident seule 1 personne sur 10 000 en serait dotée. ✔ En psychologie, Alexei Leontiev a émis l'hypothèse, à partir de travaux réalisés auprès de blessés de la seconde guerre mondiale, que l'oreille absolue pouvait s'acquérir en combinant un apprentissage vocal et auditif : ➔ l'effort musculaire réalisé par l'appareil phonatoire au moment de la reproduction d'un son est mémorisé et, quand un son est entendu, la personne tente alors de reproduire mentalement l'effort nécessaire pour l'émettre, ce qui lui permet ensuite de dire quelle est sa hauteur. ➔ D'après les expériences réalisées, de nombreuses personnes seraient ainsi parvenues à acquérir cette fameuse oreille absolue.
  • 145. 145 SON NUMERIQUESON NUMERIQUE  Oreille et cerveau humain ✔ Seule la fréquence d’un diapason est considérée comme une « fréquence absolue » servant de point de départ à tel ou tel type d'accord. Cette fréquence est celle du la 3 est de « 440 Hz ». Une octave en acoustique désigne un doublement de fréquence ➔ Cette valeur de 440 Hz a également été retenue pour la tonalité du téléphone.
  • 146. 146 SON NUMERIQUESON NUMERIQUE  Numérisation ✔ Le son est une suite périodique de compressions et de dépressions du milieu dans lequel il se propage (l’air) ✔ Les divers organes de l’oreille externe, moyenne et interne captent ces vibrations périodiques de pression et les transforment en signaux bio-électriques qui sont ensuite transmis au cortex pour y être traités et perçus en tant que son (musique, parole, …) ✔ La représentation analogique du son consiste à passer d’une onde sonore à son image électrique. ✔ La représentation numérique du son nécessitera quant à elle la quantification des échantillons prélevés sur cette image.
  • 147. 147 SON NUMERIQUESON NUMERIQUE  Numérisation ➔ Onde sonore
  • 148. 148 SON NUMERIQUESON NUMERIQUE  Numérisation ➔ Du continu au discret amplitude temp s Onde sonore échantillonnage quantification
  • 149. 149 SON NUMERIQUESON NUMERIQUE  Numérisation ➔ Exemple d'échantillonnage :
  • 150. 150 SON NUMERIQUESON NUMERIQUE  Numérisation ➔ Exemple de fréquence d'échantillonnage : Fréquence (kHz) Applications 8 Téléphonie 11,025 Mac OS 22,05 PC 32 HTDV (high definition TV) Radio numérique NICAM 44,1 CD audio 48 DAT (digital audio tape) 96 DVD audio 6 canaux 5.1 192 DVD audio 2 canaux stéréo 2822,4 SACD (super audio CD) DSD (Direct stream digital)
  • 151. 151 SON NUMERIQUESON NUMERIQUE  Compression ✔ La numérisation du son transforme un signal fragile et caractérisé par une variation continue en un signal numérique très stable fait d’une succession de 0 et 1 : copiable et transportable sans dégradation. ✔ Le signal numérique permet en fin de parcours de reconstituer et de restituer de manière propre l’onde sonore originale ✔ Tout irait donc pour le mieux si les suites de 0 et 1 dont sont constitués les documents sonores numériques n’étaient pas de taille à poser très vite de problèmes de stockage, surtout lorsqu’il s’agit d’enregistrements de haute qualité ➔ Exemple : une durée de 1 minute en qualité son stéréo sur CD- DA, échantillonnage à 44,1 kHz, quantification à 16 bits sur 2 voies, aura un volume : taux d’ échantillonnage x nbr. Bits codage x nbr. Secondes x nbr. voies =44100 x 16 x 60 x 2 = 84672000 bits/min = ~ 10 Mo/min
  • 152. 152 SON NUMERIQUESON NUMERIQUE  Compression ✔ Rappelons qu’un algorithme de compression non destructif permet de retrouver, après décompression, l’intégralité du document original : il n’y a pas de perte d’information sur le contenu original. ✔ Le principe général de ce type de compression est fondé sur la recherche des occurrences multiples d’une même suite d’octets. Ces suites étant rassemblées dans un dictionnaire où elles seront représentées par les codes les plus courts possibles. ✔ Les codes dans le dictionnaire remplaceront dans le fichier compressé les longues suites d’octets du fichier original.
  • 153. 153 SON NUMERIQUESON NUMERIQUE  Compression Exemple 1 : algorithmes généralistes WinZip, WinRar et WinAce (*.zip, *.rar, *.ace) doivent se satisfaire d’une réduction du volume du fichier d’origine (selon la complexité de la source) de 5 à 35% Exemple 2 : algorithmes spécifiques WavArc, RKAU, Perfect Clarity Audio (*.wa, *.rka, *.pca) sont spécifiquement dédiés au son et non destructifs, permettent d’atteindre une réduction de volume de 50%.
  • 154. 154 SON NUMERIQUESON NUMERIQUE  Principaux formats ✔ Parmi la multitude des formats de fichiers audio proposés sur le marché, retenons les plus utilisés : ➔ WAV (Waveform Audio Format): format propriétaire de l’environnement Windows sur PC, il est lu directement par la quasi-totalité des logiciels d’édition ou de composition musicale. ➔ AIF ou AIFF (Audio Interchange File Format) ou SND (SouND): format standard Mac OS et reconnu par les logiciels PC. Il est devenu le 1er format d’échange multi-plateformes. ➔ AU (Audio UNIX): format développé pour UNIX, lu par la quasi-totalité de logiciels professionnels de traitement audio. ➔ RA, RM ou RAM (Real Audio): format propriétaire adapté aux débits limités de l’Internet pour la diffusion de sons ou vidéos en streaming * pour le logiciel RealPLayer
  • 155. 155 SON NUMERIQUESON NUMERIQUE  Principaux formats ➔ MOV ou QT (QuickTime): dessiné à l’origine à l’environnement Macintosh, il est aujourd’hui disponible sur PC et peut être utilisé pour réaliser du streaming. ➔ VOC (SoundBlaster): format propriétaire de Creative Labs. ➔ MP3 (MPEG-Layer 3): recommandé par le MPEG, ce format présente l’intérêt majeur d’autoriser un taux de compression important sans altérer notablement la qualité sonore jusqu’à l’ordre 12:1. De nombreux lecteurs permettent la restitution des fichiers *.mp3 : WinAmp, Nad mp3 Player, UnrealPlayer, JetAudio, etc. ➔ MID ou MIDI (Music Instrument Digital Interface): il s’agit d’un format très spécifique puisque le son n’est pas (à proprement parler) numérisé comme dans les autres formats (wav, aif, etc.).
  • 156. 156 SON NUMERIQUESON NUMERIQUE  Principaux formats ✔ Parmi la multitude des formats de fichiers audio proposés sur le marché, retenons les plus utilisés : ➔ WAV (Waveform Audio Format): format propriétaire de l’environnement Windows sur PC, il est lu directement par la quasi-totalité des logiciels d’édition ou de composition musicale. ➔ AIF ou AIFF (Audio Interchange File Format) ou SND (SouND): format standard Mac OS et reconnu par les logiciels PC. Il est devenu le 1er format d’échange multi-plateformes. ➔ AU (Audio UNIX): format développé pour UNIX, lu par la quasi-totalité de logiciels professionnels de traitement audio. ➔ RA, RM ou RAM (Real Audio): format propriétaire adapté aux débits limités de l’Internet pour la diffusion de sons ou vidéos en streaming * pour le logiciel RealPLayer
  • 157. 157 Chapitre 6 :Chapitre 6 : VIDEOVIDEO
  • 158. 158 VIDEOVIDEO  Qu'est-ce qu'une vidéo  La vidéo analogique  La vidéo numérique
  • 159. 159 VIDEOVIDEO  Qu'est-ce qu'une vidéo ? ✔ Une vidéo est une succession d’images à une certaine cadence. ✔ L’œil humain a comme caractéristique d’être capable de distinguer environ 20 images par seconde. Ainsi, en affichant plus de 20 images par seconde, il est possible de tromper l’œil et de lui faire croire à une image animée. ✔ D’autre part la vidéo au sens multimédia du terme est généralement accompagnée de son, c’est-à-dire de données audio. ✔ La vidéo analogique représente l’information comme un flux continu de données analogiques, destiné à être affichées sur un écran de télévision (basé sur le principe du balayage. Il existe plusieurs normes pour la vidéo analogique. Les trois principales sont : PAL, NTSC, SECAM ✔ La vidéo numérique consiste à coder la vidéo en une succession d’images numériques.
  • 160. 160 VIDEOVIDEO  La vidéo analogique ✔ Il existe 3 formats de vidéo analogiques : ➔ Composite : Le type de connexion analogique le plus simple consiste à utiliser un câble composite.Ce câble transmet le signal vidéo à l’aide d’un fil unique. Les signaux de luminance et de chrominance sont combinés ensemble et transmis simultanément. Cette connexion présente la plus faible qualité du fait de la fusion des deux signaux. ➔ S-Video : Le type de connexion présentant un niveau de qualité immédiatement supérieur est appelé S–Video. Ce câble distribue sur deux fils distincts le signal de luminance et les signaux de chrominance combinés. Les deux fils sont contenus dans un câble unique. ➔ Composante : Le système de connexion qui offre la meilleure qualité, chaque signal YCC disposant d’un câble spécifique.
  • 161. 161 VIDEOVIDEO  La vidéo analogique ✔ Trois normes de formats sont actuellement en vigueur pour la diffusion télévisée dans le monde :
  • 162. 162 VIDEOVIDEO  La vidéo numérique ✔ La vidéo numérique consiste à afficher une succession d’images numériques. Puisqu’il s’agit d’images numériques affichées à une certaine cadence, il est possible de connaître le débit nécessaire pour l’affichage d’une vidéo, c’est-à-dire le nombre d’octets affichés (ou transférés) par unité de temps. ✔ Ainsi le débit nécessaire pour afficher une vidéo (en octets par seconde) est égal à la taille d’une image que multiplie le nombre d’images par seconde. ✔ Soit une image true color (24 bits) ayant une définition de 640 pixels par 480. Pour afficher correctement une vidéopossédant cette définition il est nécessaire d’afficher au moins 30 images par seconde, c’est-à-dire un débit égal à :900 Ko * 30 = 27 Mo/s
  • 163. 163 VIDEOVIDEO  La vidéo numérique ✔ Notion de codec ➔ Une image d’une vidéo non compressée occupe une taille d’environ 1 Mo. Afin d’obtenir une vidéo paraissant fluide il est nécessaire d’avoir une fréquence d’au moins 25 ou 30 images par seconde, ce qui produit un flux de données d’environ30 Mo/s, soit plus de 1.5 Go par minute. ➔ Il est évident que ce type de débit est peu compatible avec les espaces de stockage des ordinateurs personnels ni même avec les connexions réseau de particuliers ou de petites ou moyennes entreprises.Ainsi, afin de pallier à cette difficulté, il est possible de recourir à des algorithmes permettant de réduire significativement les flux de données en compressant / décompressant les données vidéos. On appelle ces algorithmes CoDec (pourCOmpression / DECompression).
  • 164. 164 VIDEOVIDEO  La vidéo numérique ➔ Exemples de codecs : ✗ h.261 / MPEG-1 1988 ✗ Cinepac 1991 Apple ✗ Indeo 1992 Intel ✗ Avi 1992 Microsoft ✗ h.263 / MPEG-2 1995/96 ITU-T VCEG ✗ DV (Digital Video) 1995 (basé sur MPEG-2) ✗ DVD 1995 video (MPEG-2) + son(AC-3, DTS, MPEG ou encore .ogg, MP3, VQF, AAC) !!! ✗ h.264 / MPEG-4 2003 (.mp4, .mov, .avi, .divx,etc....;)
  • 165. 165 VIDEOVIDEO  La vidéo numérique ✔ Il existe au niveau de la vidéo deux sortes de compression : ➔ On parle de compression spatiale lorsque l’on réduit la taille initiale d’une image par des moyens dégradants ou non. Cette méthode s’applique principalement sur les images fixes. ➔ La compression temporelle est utilisée pour réduire le flux d’information en ne conservant par exemple que les différences entre deux images successives. On associe à la compression temporelle deux méthodes distinctes : ✔ Le codage différentiel qui soustrait toutes les informations redondantes d’une image à l’autre pour ne conserver que les déplacements (problèmes si grandes différences) ✔ La seconde méthode employée est le codage par prédiction du mouvement qui est très réducteur de volume, mais dont le défaut est de trop dégrader l’information surtout si les mouvements sont rapides.
  • 166. 166 VIDEOVIDEO  La vidéo numérique ✔ M-JPEG ➔ La première idée qui vient à l’esprit après s’être interessé à la compression d’images est d’appliquer . Le principe du Motion JPEG (noté MJPEG ou M-JPEG, à ne pas confondre avec le MPEG) consiste à appliquer successivement l’algorithme de compression JPEG aux différentes images d’une séquence vidéo. ➔ Etant donné que le M-JPEG code séparément chaque image de la séquence il permet d’accéder aléatoirement à n’importe quelle partie d’une vidéo. Ainsi son débit de 8 à 10 Mbps le rend utilisable dans les studios de montage numérique.
  • 167. 167 VIDEOVIDEO  La vidéo numérique ✔ MPEG ➔ Dans de nombreuses séquences vidéos, de nombreuses scènes sont fixes ou bien changent très peu, c’est ce que l’on nomme la redondance temporelle.Lorsque seules les lèvres de l’acteur bougent, presque seuls les pixels de la bouche vont être modifiés d’une image à l’autre, il suffit donc de décrire le changement d’une image à l’autre. C’est là la différence majeure entre le MPEG (Mo-ving Pictures Experts Group) et le M-JPEG. Cependant cette méthode aur beaucoup moins d’impact sur une scèned’action.Le groupe MPEG a été établi en 1988 dans le but de développer des standa rds internationaux de compression, décompression, traitement et codage d’image animées et de données audio. ➔ Il existe plusieurs standards MPEG :
  • 168. 168 VIDEOVIDEO  La vidéo numérique ✔ MPEG ✗ le MPEG-1, développé en 1988, est un standard pour la compression des données vidéos et des canaux audio associés (jusqu’à 2 canaux pour une écoute stéréo). Il permet le stockage de vidéos à un débit de 1.5Mbps dans une qualité proche des cassettes VHS sur un support CD appelé VCD (Vidéo CD). ✗ le MPEG-2, un standard dédié originalement à la télévision numérique (HDTV) offrant une qualité élevé à un débit pouvant aller jusqu’à 40 Mbps, et 5 canaux audio surround. Le MPEG-2 permet de plus une identification et une protection contre le piratage. Il s’agit du format utilisé par les DVD vidéos. ✗ le MPEG-4, un standard destiné à permettre le codage de données multimédia sous formes d’objets numériques, afin d’obtenir une plus grande interactivité, ce qui rend son usage particulièrement adapté au Web et aux périphériques mobiles.
  • 169. 169 VIDEOVIDEO  La vidéo numérique ✔ MPEG ➔ La norme MPEG-1 représente chaque image comme un ensemble de blocs 16 x 16. Elle permet d’obtenir une résolution de: • 352x240 à 30 images par seconde en NTSC • 352x288 à 25 images par seconde en PAL/SECAM ➔ Le MPEG-1 permet d’obtenir des débits de l’ordre de 1.2 Mbps (exploitable sur un lecteur de CD-ROM). ➔ Le MPEG-1 permet d’encoder une vidéo grâce à plusieurs techniques :
  • 170. 170 VIDEOVIDEO  La vidéo numérique ✔ MPEG ✗ Intra coded frames (Frames I, correspondant à un codage interne): les images sont codées séparément sans faire référence aux images précédentes. ✗ Predictive coded frames (frames P ou codage prédictif): les images sont décrites par différence avec les images précédentes. ✗ Bidirectionally predictive coded frames (Frames B): les images sont décrites par différence avec l’image précédente et l’image suivante. ✗ DC Coded frames: les images sont décodées en faisant des moyennes par bloc.
  • 171. 171 VIDEOVIDEO  La vidéo numérique ✔ MPEG ➔ Les frames I : Ces images sont codées uniquement en utilisant le codage JPEG, sans se soucier des images qui l’entourent. De telles images sont nécessaires dans une vidéo MPEG car ce sont elles qui assurent la cohésion de l’image (puisque les autres sont décrites par rapport aux images qui les entourent), elles sont utiles notamment pour les flux vidéo qui peuvent être pris en cours de route (télévision), et sont indispensables en cas d’erreur dans la réception. Il y en a donc une ou deux par seconde dans une vidéo MPEG. ➔ Les frames P : Ces images sont définies par différence par rapport à l’image précédente. L’encodeur recherche les différences de l’image par rapport à la précédente et définit des blocs, appelés macroblocs (16x16 pixels) qui se superposeront à l’image précédente.L’algorithme compare les deux images bloc par bloc et à partir d’un certain seuil de différence, il considère le bloc del’image précédente différent de celui de l’image en cours et lui applique une compression JPEG.
  • 172. 172 VIDEOVIDEO  La vidéo numérique ✔ MPEG ➔ Les frames B : De la même façon que les frames P, les frames B sont travaillées par différences par rapport à une image de référence,sauf que dans le cas des frames B cette différence peut s’effectuer soit sur la précédente (comme dans les cas des frames P) soit sur la suivante, ce qui donne une meilleure compression, mais induit un retard (puisqu’il faut connaîtrel’image suivante) et oblige à garder en mémoire trois images (la précédente, l’actuelle et la suivante). ➔ Afin d’optimiser le codage MPEG, les séquences d’images sont dans la pratique codées suivant une suite d’images I, B, et P (D étant comme on l’a dit réservé à l’avance rapide) dont l’ordre a été déterminé expérimentalement. La séquence, type appelée GOP (Group Of Pictures ou en français groupes d’images) est la suivante:IBBPBBPBBPBBI ➔ Une image I est donc insérée toutes les 12 frames.
  • 173. 173 VIDEOVIDEO  La vidéo numérique Norme Objectif Etat MPEG-1 Visionnage / Video CD (1 à 3 Mb/s) Standard en 1992 MPEG-2 Diffusion broadcast / DVD (4 à 50 Mb/s) Standard en 1994 MPEG-4 Intégration des formats Audiovisuels (Vidéo, audio, 2D, 3D) pour le bas et le haut débit Version 1 en 1998 Version 2 en 1999 2003 : H264 / part 10 MPEG-7 Description des informations audiovisuelles pour faciliter la recherche et le filtrage Standard en 2001 MPEG-21 Définition d’un modèle et d’une architecture pour la diffusion commerciale des contenus multimédia En cours
  • 174. 174 VIDEOVIDEO  La vidéo numérique ✔ Les formats les plus connus : ➔ .mov : (Apple) container -> tous formats/résolutions et mélanges de ceux-ci. ➔ .avi : (MS) container -> divers formats y compris DivX. ➔ .dv : idéal pour le montage vidéo avec iMovie ou autrefaible compression => fichiers très gros mais sans perte de qualité. ➔ .mpg .mpeg : obsolète, faible compression, mauvaise qualité d'image et de son. ➔ .wmv :(Windows Media Player) divers codecs propriétaires non compatible QuickTime sauf via plugins Flip4Mac ou Perian ➔ .mp4 : MPEG-4 = forte compression, standardisé, accepté partout ➔ .vob : DVDs commerciaux
  • 175. 175 VIDEOVIDEO  La vidéo numérique ✔ Alors, quel est le meilleur format ? Bien difficile de répondre car cela dépend beaucoup du type du document vidéo concerné et de son utilisation future. Voici quand même l'esquisse d'une sélection: ➔ dv (ou .mov avec compression DV) : idéal pour le montage vidéo mais surtout pas pour la diffusion. ➔ .mp4 :idéal pour le web car format normalisé, fichiers petits et acceptés par tous les browsers. ➔ .flv : pas mal utilisé sur le web car les vidéos en ligne ne sont pas/pas facilement copiables. A proscrire donc si on veut que le lecteur puisse aisément récupérer la vidéo. ➔ .vob : si on veut faire de jolis DVDs lisibles sur n'importe quel lecteur de salon.Dans ce cas il faut passer par un outil de création de DVDs comme iDVD d'Apple.
  • 176. 176 Chapitre 7 :Chapitre 7 : Compression de imagesCompression de images
  • 177. 177 Compression des imagesCompression des images  C'est quoi la compression  La compression sans perte  La compression avec perte
  • 178. 178 Compression des imagesCompression des images  C'est quoi la compression ? ✔ La compression de données ou codage de source est l'opération informatique consistant à transformer une suite de bits A en une suite de bits B plus courte pouvant restituer les mêmes informations en utilisant un algorithme particulier. ✔ Opération de codage, elle raccourcit la taille (de transmission ou de stockage) des données au prix d'un effort de compression et de décompression. ✔ La décompression est l'opération inverse de la compression. ✔ La compression peut etre soit sans perte soit avec perte
  • 179. 179 Compression des imagesCompression des images  La compression sans perte ✔ La compression est dite sans perte lorsqu'il n'y a aucune perte de données sur l'information d'origine. Il y a autant d'information après la compression qu'avant, elle est seulement réécrite d'une manière plus concise (c'est par exemple le cas de la compression gzip pour n'importe quel type de données ou du format PNG pour des images synthétiques destinées au Web2). ✔ La compression sans perte est dite aussi compactage. ✔ L'information à compresser est vue comme la sortie d'une source de symboles qui produit des textes finis selon certaines règles. ✔ Le but est de réduire la taille moyenne des textes obtenus après la compression tout en ayant la possibilité de retrouver exactement le message d'origine (on trouve aussi la dénomination codage de source en opposition au codage de canal qui désigne le codage correcteur d'erreurs). ✔ Plusieurs méthodes possibles dont on site : RLE,LZW et Huffman.
  • 180. 180 Compression des imagesCompression des images ● Méthode RLE ✔ Exemple : WWWWWWWWWWWWBWWWWWWWWWWWWWWBBBW WWWWWWWWWWWWWWWWWWWWWWBWWWWWWW WWWW ✔ Un encodage RLE consiste alors à indiquer pour chaque suite de pixels d'une même couleur, le nombre de pixels de cette séquence. Le résultat comporte en général moins de caractères, bien que ce ne soit pas une obligation. On obtient par exemple pour la ligne précédente : 12W1B14W3B23W1B11W ✔ Tandis que : WBWBWBWBWB donnerait : 1W1B1W1B1W1B1W1B1W1B ✔ Ce qui est deux fois plus long.Remarque : Dans ce dernier cas, il serait donc plus efficace d'écrire la lettre uniquement si elle est seule (sans le chiffre 1). On aurait donc au pire la même taille (dans le cas où il y aurait une ou 2 lettres identiques) mais jamais une augmentation.
  • 181. 181 Compression des imagesCompression des images ● Méthode RLE ✔ Le run-length encoding, appelé en français le codage par plages, est un algorithme de compression de données en informatique. ✔ Le système s'applique essentiellement à des documents scannés en noir et blanc : au lieu de coder un bit par point, on dispose d'un compteur — en général sur un octet — indiquant combien de points blancs ou noirs se suivent. Comme il est rare de ne pas avoir au moins 8 pixels noirs ou 8 pixels blancs qui se suivent, et que 256 ne sont pas rares sur les endroits vierges ou les à-plats noirs, le système a bien pour effet une compression. ✔ S'il y a plus de 256 bits de la même couleur, on peut placer ensuite un octet spécifiant 0 bit de la couleur opposée, puis coder le nombre de bits qui restent... ✔ Par exemple, considérons un écran de texte noir sur fond blanc. Il sera constitué de longues séquences de pixels blancs pour le fond, et de courtes séquences de pixels noirs pour le texte. Représentons une ligne d'un tel écran, avec B pour les pixels noirs et W pour les pixels blancs :
  • 182. 182 Compression des imagesCompression des images ● Méthode LZW : ✔ LZW (pour Lempel-Ziv-Welch) est un algorithme de compression de données sans perte. Il s'agit d'une amélioration de l'algorithme LZ78 inventé par Abraham Lempel et Jacob Ziv en 1978. LZW fut créé en 1984 par Terry Welch, d'où son nom. ✔ L'algorithme LZW avait été breveté par la société Unisys1 (un brevet logiciel valable uniquement aux États-Unis). Il a été utilisé dans les modems (norme V42 bis) et est encore utilisé dans les formats d'image numérique GIF ou TIFF et les fichiers audio MOD. ✔ L’algorithme est conçu pour être rapide à implémenter, mais n’est la plupart du temps pas optimal car il effectue une analyse limitée des données à compresser.
  • 183. 183 Compression des imagesCompression des images ● Méthode LZW : w = Nul; tant que (lecture d'un caractère c) faire si (wc existe dans le dictionnaire) alors w = wc; sinon ajouter wc au dictionnaire; écrire le code de w; w = c; fin si fin tant que écrire le code de w;
  • 184. 184 Compression des imagesCompression des images ● Méthode LZW : ✔ Exemple ✔ La table suivante montre le résultat de l'exécution de l'algorithme de compression sur la chaîne suivante : TOBEORNOTTOBEORTOBEORNOT ✔ On suppose qu'on utilise un code ASCII de 256 caractères (8-bits) comme dictionnaire de base. La longueur de cette chaîne est de 24 caractères. Elle nécessite donc 24 * 8 = 192 bits d'espace de stockage. ✔ Après la compression, nous obtenons une séquence de codes de 9 bits sur la sortie : TOBEORNOT<256><258><260><265><259><261><263> ✔ Elle nécessite 16 × 9 = 144 bits d'espace de stockage, au lieu des 192 bits de la chaine originale.
  • 185. 185 Compression des imagesCompression des images ● Méthode LZW :
  • 186. 186 Compression des imagesCompression des images ● Méthode Huffman : ✔ Le principe du codage de Huffman repose sur la création d'un arbre composé de nœuds. Supposons que la phrase à coder est « wikipédia ». ✔ On recherche tout d'abord le nombre d'occurrences de chaque caractère (ici les caractères 'a', 'd', 'é', 'k', 'p' et 'w' sont représentés chacun une fois et le caractère 'i' trois fois). ✔ Chaque caractère constitue une des feuilles de l'arbre à laquelle on associe un poids valant son nombre d'occurrences. Puis l'arbre est créé suivant un principe simple : on associe à chaque fois les deux nœuds de plus faibles poids pour donner un nœud dont le poids équivaut à la somme des poids de ses fils jusqu'à n'en avoir plus qu'un, la racine. On associe ensuite par exemple le code 0 à la branche de gauche et le code 1 à la branche de droite.
  • 187. 187 Compression des imagesCompression des images ● Méthode Huffman : ✔ Example : Symbol Frequency A 24 B 12 c 10 D 8 E 8
  • 188. 188 Compression des imagesCompression des images ● Méthode Huffman : Symbol Frequency Code Code total Length Length A 24 0 1 24 B 12 100 3 36 C 10 101 3 30 D 8 110 3 2 E 8 111 3 24
  • 189. 189 Compression des imagesCompression des images  La compression avec perte ✔ La compression est dite avec perte ou destructive (contrairement à la compression sans perte ou non destructive engendre généralement une perte de données plus au moins visible . ✔ Elle peut utiliser un codage non destructif tel est celui de huffman ✔ Plusieurs méthodes possibles dont on site : la norme jpeg .
  • 190. 190 Compression des imagesCompression des images ● La norme JPEG (Joint Photographic Expert Group ) ✔ JPEG définit deux classes de processus de compression : • avec pertes ou compression irréversible. C’est le JPEG « classique ». Il permet des taux de compression de 3 à 100 • sans pertes ou compression réversible. Il n’y a pas de pertes d’information et il est donc possible de revenir aux valeurs originales de l’image. Les gains en termes de compression sont alors plus modestes, avec un taux de compression de l’ordre de 2 à 8 [réf. nécessaire]. Cette partie fait l’objet d’une norme spécifique appelée JPEG-LS.
  • 191. 191 Compression des imagesCompression des images ● La norme JPEG (Joint Photographic Expert Group ) ✔ La technique de codage repose , après une transformation discrète en cosinus (DCT) , sur une quantification suivie d'un codage de Huffman. La rigueur de la spécification est spécifiée au moment du codage . ✔ Ce paramètre va interférer sur la qualité du résultat : • 10:1 à 20:1 sans perte visible • 30:1 à 50:1 avec perte modérée • 100:1 pour les images de faibles qualités ✔ La transformée DCT (Discrete Cosine Transform, en français transformée en cosinus discrète), est une transformation numérique qui est appliquée à chaque bloc. Cette transformée est une variante de la transformée de Fourier. Elle décompose un bloc, considéré comme une fonction numérique à deux variables, en une somme de fonctions cosinus oscillant à des fréquences différentes.
  • 192. 192 Compression des imagesCompression des images ● La norme JPEG (Joint Photographic Expert Group ) ✔ La transformée DCT s’exprime mathématiquement par : ✔ Et la transformée DCT inverse s’exprime par : ✔ Dans les deux cas la constante vaut 1 si x>0 et 1/racine(2) sinon
  • 193. 193 Compression des imagesCompression des images ● La norme JPEG (Joint Photographic Expert Group )
  • 194. 194 Compression des imagesCompression des images ● L'utilisation des fractales : ✔ La compression fractale est une méthode de compression d'image encore peu utilisée aujourd’hui. Elle repose sur la détection de la récurrence des motifs, et tend à éliminer la redondance d’informations dans l'image. ✔ C'est une méthode destructive puisque l'ensemble des données de départ ne se retrouve pas dans l'image finale. Il existe plusieurs méthodes (subdivision de triangles, Delaunay etc.) mais la compression par la méthode Jacquin est la plus connue. ✔ L'idée de base est la description des images par des équations ainsi l'image est définie par des transformations et non point par point .Ce fait engendre : • On peut obtenir un taux de compression de 30:1 sans effet de masaique . • Mais ça nécessite beaucoup de puissance et un temps de compression énorme .
  • 195. 195 Compression des imagesCompression des images ● Le codage par ondelette : ✔ Le principe est de décomposer l'image en de multiples images de faibles résolutions . ✔ La compression se compose donc des étapes suivantes 1. Transformations par ondelettes. 2. Quantification : les valeurs des images de détails inférieures à un certain niveau sont éliminées, en fonction de l’efficacité recherchée. C’est cette étape qui introduit des pertes. 3. Codage des valeurs restantes. ✔ Les principaux avantages par rapport à JPEG sont : • Le fait que l’algorithme s’adapte mieux aux propriétés locales de l’image. • On peut atteindre des taux de compression d’environ 50 contre 15 pour JPEG tout en ayant une qualité d’image raisonnable.