SlideShare une entreprise Scribd logo
1  sur  64
Mise en œuvre du TNS Page 1 sur 64
Novembre 2012.
Traitement Numérique du Signal
CM1 : Signal et information
Université du Havre, IUT du Havre
Département GEII
Mise en œuvre du TNS Page 2 sur 64
PPN 2008: MC-II3
Traitement du signal
Applications en GEII
Mise en œuvre
Test
DSP
CAN/CNA
TF, compression,
codage
Mise en œuvre du TNS Page 3 sur 64
Signal et Information
 Information
 Signal
 Compression sans perte
 Compression destructive
 Conclusion
Plan
Mise en œuvre du TNS Page 4 sur 64
1. Information
Mise en œuvre du TNS Page 5 sur 64
Information
 Sens du mot information:
Information : Contenu, intérêt
 L'information est un concept ayant plusieurs sens. Il est étroitement lié aux
notions de contrainte, communication, contrôle, donnée, formulaire, instruction
, connaissance, signification, perception et représentation.
 L'information désigne à la fois le message à communiquer et les symboles
utilisés pour l'écrire ; elle utilise un code de signes porteurs de sens tels qu'un
alphabet de lettres, une base de chiffres, des idéogrammes ou pictogrammes.
 Au sens étymologique, l'information est ce qui donne une forme à l'esprit.
 Elle vient du verbe latin informare, qui signifie "donner forme à"
ou "se former une idée de".
 Hors contexte, elle représente le véhicule des données comme dans la
théorie de l'information et, hors support, elle représente un facteur
d'organisation.
http://fr.wikipedia.org/wiki/Information
Mise en œuvre du TNS Page 6 sur 64
Information
 Sens du mot information:
Information : Contenu, intérêt
 Selon la théorie de l'information, des données contiennent de l'information
quand celles-ci ne sont que peu compressibles et qu'elles sont complexes. En
effet, l'information contenue dans un message composé d'une seule lettre se
répétant un grand nombre de fois tel que « AAAAAAAAA... » est quasiment
nulle.
 La conception la plus répandue de l'information est liée au couple "message
+ récepteur", le dernier possédant des implicites valorisant le message (de
fait, tout message est incompréhensible sans ces implicites).
 Ainsi, la phrase "Médor est un chien" contient plus d'information que "Médor
est un quadrupède", bien que la seconde contienne plus de lettres. La
différence est à mettre au compte de la connaissance d'un dictionnaire
implicite et faisant partie du contexte.
 Les notions de quantité d'information et d'entropie font l'objet d'une
discipline spécialisée, la théorie de l'information, initiée par Shannon.
http://fr.wikipedia.org/wiki/Information
Mise en œuvre du TNS Page 7 sur 64
Stockage
Traitement
Transmission
Information
 Vecteurs d’information: schéma fonctionnel
 Sources d ’information;
 Moyens de codage et d’adaptation;
 Moyens de stockage, de traitement et de transmission.
Information : Contenu, intérêt
Adaptation
Codage
Adaptation
Codage
Présentation
Utilisateur
Source
d’information
Emetteur
Mise en œuvre du TNS Page 8 sur 64
Information
Information : Contenu, intérêt
Source
d'information Message Signal émis
Émetteur Récepteur Destination
Message
Source
de bruit
Signal reçu
Bruit
+
+
 Vecteurs d’information: schéma fonctionnel
 Sources d ’information;
 Moyens de codage et d’adaptation;
 Moyens de stockage, de traitement et de transmission.
 Source de bruit: Perturbation.
Mise en œuvre du TNS Page 9 sur 64
2. Signal
Mise en œuvre du TNS Page 10 sur 64
Signal
Signal : Message
 Un signal est un message simplifié et généralement codé.
Il existe sous forme d'objets ayant des formes particulières :
 Il existe sous forme d'objet ayant une forme particulière.
FRANCE FRANCE FR
GERMANY ALLEMAGNE DE
GREECE GRÈCE GR
ITALY ITALIE IT
SPAIN ESPAGNE ES
UNITED KINGDOM ROYAUME-UNI GB
Codets alpha-2 correspondants de l'ISO 3166-1
STOP
Mise en œuvre du TNS Page 11 sur 64
Signal
Signal : Message
 Un signal est un message simplifié et généralement codé.
Il existe sous forme d'objets ayant des formes particulières :
 Le signal électrique est une des formes
les plus récentes de signal.
L'alphabet morse ou code morse, est un
code permettant de transmettre un texte
à l'aide de séries d'impulsions courtes et
longues, qu'elles soit produites par des
signes, une lumière ou un geste.
Inventé par Samuel Morse en 1835 pour
la télégraphie, ce codage de caractères
assigne à chaque lettre, chiffre et signe
de ponctuation une combinaison unique
de signaux intermittents. Le code morse
est considéré comme le précurseur des
communications numériques.
Mise en œuvre du TNS Page 12 sur 64
Signal
Signal : Message
 Un signal est un message simplifié et généralement codé.
Il existe sous forme d'objets ayant des formes particulières :
 En électronique, on utilise le signal analogique ou numérique.
Mise en œuvre du TNS Page 13 sur 64
Signal
Signal : Message
 Un signal est un message simplifié et généralement codé.
Il existe sous forme d'objets ayant des formes particulières :
 En informatique, le signal permet la communication :
Échange de données inter-processus.
Synchronisation des processus.
 Systèmes de transmission d'information entre périphériques :
Filaire: IEEE 1394, SCSI, USB, ATA, SATA, eSATA…
Réseau: Ethernet, InfiniBand, TokenTing, CPL…
Sans fils: Bluetooth, WiFi, irDA, WirelessUSB
 Les signaux lumineux permettent la communication à grande distance.
Mise en œuvre du TNS Page 14 sur 64
Signal
Signal : Extension
 Une image est un signal (x, y).
 En informatique, l'image brute (raw) est codée au format BMP :
 Exemple : Image 4x2 = 8 pixels codés sur 24 bits(/pixel)
1 2 3 4
5 6 7 8
 Taille du fichier (octets) : No = 24 bits = 3 octets
Taille = En-tête + NX×NY×No
Soit Taille = 54 + 4x2x3 = 78 octets
NY = 2 pixels
NX = 4 pixels
Mise en œuvre du TNS Page 15 sur 64
Signal
Signal : Extension
 Une image est un signal (x, y).
 En informatique, l'image brute (raw) est codée au format BMP :
 Exemple :
Pixel 1: Code RVB (little-endian)
i.e. B = "FF", V = "00", R = "00"
Mise en œuvre du TNS Page 16 sur 64
Signal
Signal : Extension
 Une image est un signal (x, y).
 En informatique, l'image brute (raw) est codée au format BMP :
 Exemple :
Octets Signification
42 4D Caractères B($42) et M($4D) indiquant un fichier de type BMP
4E 00 00 00 Taille du fichier $0000004E = 78 octets (de l'offset 0 à l'offset 77)
00 00 00 00 Réservé (toujours à 0)
36 00 00 00 Offset de l'image $00000036 = 54
28 00 00 00 Taille de l'entête $00000028 = 40 octets
04 00 00 00 Largeur de l'image $00000004 = 4 pixels
02 00 00 00 Hauteur de l'image $00000002 = 2 pixels
01 00 Nombre de plans utilisés $0001 = 1
18 00 Nombre de bits par pixel = $0018 = 24 (3 octets)
00 00 00 00 Méthode de compression : 0 pas de compression
18 00 00 00 Taille de l'image $00000018 = 24 octets = 8 (pixels) x 3 (octets par pixel)
C4 0E 00 00 Résolution horizontale $00000EC4 = 3780 pixels par mètre
C4 0E 00 00 Résolution verticale $00000EC4 = 3780 pixels par mètre
00 00 00 00 Couleurs utilisées : 0 palette entière
00 00 00 00 Nombre de couleurs important
14
40
Mise en œuvre du TNS Page 17 sur 64
Signal
Signal : Extension
 Une image est un signal (x, y).
 En informatique, l'image brute (raw) est codée au format BMP :
Octets Signification
FF 00 00 B=255, V=0, R=0 : Bleu
00 00 00 B=0, V=0, R=0 : Noir
FF 00 FF B=255, V=0, R=255 : Violet
FF FF FF B=255, V=255, R=255 : Blanc
00 00 FF B=0, V=0, R=255 : Rouge
00 FF 00 B=0, V=255, R=0 : Vert
00 FF FF B=0, V=255, R=255 : Jaune
FF FF 00 B=255, V=255, R=0 : Cyan
Mise en œuvre du TNS Page 18 sur 64
Signal
Signal : Extension
 Un signal est un message simplifié et généralement codé.
Ce signal peut comporter plus de une dimension :
 En général, par signal on entend : y(x) ou x(t).
 Par extension, une image (2D) est aussi un signal :
Monochrome: (x, y, 0 ou 1)
16 couleurs: (x, y, 0 à 2^4−1)
256 couleurs: (x, y, 0 à 2^8−1)
65536 couleurs: (x, y, 0 à 2^16−1)
24 bits couleurs: (x, y, 0 à 2^24−1)
 Par extension, une vidéo (3D) est aussi un signal :
Monochrome: (x, y, t, 0 ou 1)
16 couleurs: (x, y, t, 0 à 2^4−1)
256 couleurs: (x, y, t, 0 à 2^8−1)
65536 couleurs: (x, y, t, 0 à 2^16−1)
24 bits couleurs: (x, y, t, 0 à 2^24−1)
Mise en œuvre du TNS Page 19 sur 64
Signal
Signal : Extension
 Un signal est un message simplifié et généralement codé. Ce signal peut
comporter un nombre de dimensions variables :
 Par extension, une vidéo "3D" (hors temps, 4D en fait) est aussi un signal :
Couleurs: (x, y, z, t, niveau couleur)
 En pratique, une vidéo "3D" est constituée de deux
vidéos, une pour chaque œil : principe de la stéréo
Couleurs: 2×(x, y, t, niveau couleur)
 Il existe cependant des vraies images 3D animées
(4D, donc) :
Scanner: (x, y, z, t, niveau couleur)
http://fr.wikipedia.org/wiki/Scanner_(médecine)
Mise en œuvre du TNS Page 20 sur 64
Signal
Signal : Extension
 Un signal est un message simplifié et généralement codé. Ce signal peut
comporter un nombre de dimensions variables :
 Se pose alors le problème de la représentation de ces données :
http://fr.wikipedia.org/wiki/Imagerie_par_résonance_magnétique
Mise en œuvre du TNS Page 21 sur 64
3. Compression
Mise en œuvre du TNS Page 22 sur 64
Compression
 Quantification du codage:
 Quantification de l'information :
 Codage adapté à l'alphabet.
 Probabilité d'occurrence p(x) inconnue...
Compression : Réduction du codage et conservation de l'information
 Nombre de symboles.
 Probabilité d'occurrence.
 Nombre de symboles.
 Nombre de bits nécessaires.
Nombre de symbolesNom
Binaire
Doigts
Jours
Mois
Chiffres
Alphabet
ASCII
ASCII étendu
Niveaux sur 16 bits
Niveaux sur 24 bits
2 (0, 1)
5 (pouce, …, annulaire)
7 (lundi, …, dimanche)
12 (janvier, …, décembre)
10 (0 à 9)
26 (A à Z)
27
= 128
28
= 256
216
= 65536
224
= 16777216
 Codage adapté à l'information:
probabilité d'occurrence.
 Codage intégrant
des codes correcteurs.
Mise en œuvre du TNS Page 23 sur 64
Compression
 Quantité d'information:
 On vérifie bien I(x) = 0 pour p(x) = 1 et I(x) → + ∞ pour p(x) = 0.
Compression : Réduction du codage et conservation de l'information
 Selon Shannon, la quantité
d'information I(x) s'écrit :
2
1
( ) log
( )
I x
p x
 
=  ÷
 
( )2( ) log ( )I x p x= −soit
 La quantité d'information et
son traitement sont directement
liés à la base numérique de
quantification (base 2) et à la
nature de la source.
Mise en œuvre du TNS Page 24 sur 64
Compression
 Généralisation:
avec
Compression : Réduction du codage et conservation de l'information
 Soit une source d'information discrète finie stationnaire sans mémoire,
soit l'émission d'une variable aléatoire X = {x1
, x2
, …, xN
} avec une
probabilité d'occurrence p = {p(x1
), p(x2
), …, p(xN
)} = {p1
, p2
, …, pN
} associée
respectivement à chacun des caractères, alors l'entropie [de Shannon]
associée à chacun des caractères s'écrit :
2( ) . ( ) log ( )k k k k kH x p I x p p= = −
 L'entropie d'une source d'information est la quantité d'information
moyenne associée à chaque symbole de la source. L'entropie de Shannon
s'écrit en fonction des probabilités d’occurrence pk de chacune des
quantités d'information I(xk) constituant le signal :
( ) 2
1
( ) ( ) log ( )
N
k k
k
H X E I X p p
=
= = −∑
1
1
N
k
k
p
=
=∑
Mise en œuvre du TNS Page 25 sur 64
Compression
 Borne supérieure:
Compression : Réduction du codage et conservation de l'information
2( ) log ( )H X N≤
 Cette valeur limite de l'entropie
Hmax(X), obtenue pour une
distribution uniforme, constitue
la borne supérieure de l'entropie :
max 2( ) log ( )H X N=
max 2
1
( ) log ( )
N
k k
k
H X p p
=
= −∑
soit
 Dans le cas d'un alphabet
constitué de N variables
indépendantes et équiprobables,
alors pn
= 1/N pour tout 1 ≤ n ≤ Ν
et l'entropie est maximale :
Mise en œuvre du TNS Page 26 sur 64
Compression
 Source binaire:
Compression : Réduction du codage et conservation de l'information
max ( ) 1H X =
( ) 0H X =
2
2
( ) log ( )
(1 )log (1 )
H X p p
p p
= −
− − −
et
 Dans ce cas, l'alphabet se
réduit à X = {0 ; 1}, et l'entropie
est donnée en fonction de p0
= p
et p1
= 1−p, par :
si p = {0;1}
 La valeur de l'entropie H(X),
n'excède pas la borne supérieure
de l'entropie Hmax(X) obtenue dans
le cas equiprobable, i.e. p = 0,5 :
Mise en œuvre du TNS Page 27 sur 64
3.1. Compression non destructive
Mise en œuvre du TNS Page 28 sur 64
Compression
Compression numérique sans perte
 Informatiquement, un signal numérique est une suite de bits représentant la
succession des valeurs prises à certains instants. Chaque échantillon
correspond à code ou codage.
 Par exemple, un signal de N échantillons codés chacun sur 2 octets
nécessite N×2×8 bits.
 Le problème posé est le suivant : Pour un signal numérique donné, est-il
possible d’en réduire le codage, sans perdre d’information ?
 "Sans perdre d’information" signifie que le signal initial peut être reconstruit
exactement à partir de cette représentation, soit une compression sans perte.
 Prenons l’exemple du code Morse. Chaque caractère est codé par une
succession de points et traits. Mais ce codage est à longueur variable, adaptée
à la fréquence d’apparition des lettres : la lettre E (fréquente) est codée par : "·",
alors que la lettre Z (rare) est codée par : "− − ··".
Mise en œuvre du TNS Page 29 sur 64
Compression
Compression numérique sans perte
 Chaque échantillon correspond à code ou codage.
 Ainsi, la lettre E (fréquente) nécessite 1 symbole tandis que la lettre Z (rare)
nécessite 4 symboles. Par exemple, pour notre alphabet latin de 26 lettres, une
première approche nous indique que 5 symboles binaires sont nécessaires:
2^5 = 32 (> 26). Par des méthodes de compression (RLE, Huffman, LZW…)
on peut réduire le nombre moyen de symboles nécessaires.
 Cas particulier et contre-exemple: "La disparition" de Georges Perec.
 Le but est de transmettre en moyenne un moins grand nombre de symboles
élémentaires (trait ou point) qu’avec un codage où toutes les lettres seraient
représentées par le même nombre de symboles.
 Dans ce chapitre nous formalisons ces notions, dans le cadre de la théorie
statistique de l’information de Claude Shannon (1916-2001) développée
essentiellement dans les années 1940-1950.
Mise en œuvre du TNS Page 30 sur 64
Compression
 Compression RLE : Ce type de compression, surtout efficace et utilisé pour
les images avec peu de couleurs consiste à relever les répétitions de symboles
et indiquer leur nombre.
 Exemple:
Soit la chaîne de caractères suivante:
"AAAAAAAAAAAAAAABBBBBAAAAAAAACCCCCCCCCCCCCCCCDD".
On a: A×15 B×5 A×8 C×16 D×2
La compression RLE donne donc:
"A#15 $ B#5 $ A#8 $ C#16 $ D#2"
Avec "#" le nombre d'occurrences successives, et "$" le séparateur de relevés.
On est passé de 46 symboles à 21 symboles, soit α = 21/46 = 46%.
 Taux de compression :
On définit le taux de compression par le ratio entre le nombre de
symboles après compression Nc et celui avant compression Ni :
c
i
N
N
α =
Compression RLE : Run Length Encoding
Mise en œuvre du TNS Page 31 sur 64
Compression
Compression numérique sans perte
 Codes préfixes: Codages (i.e. les concaténations de mots binaires) pouvant
être décodés sans ambiguïté. On appelle code préfixe tout code tel que chaque
mot n’est le début d’aucun autre.
 Exemple:
Soit un alphabet à 4 symboles : X = {A; B; C; D}, classés par ordre
décroissant de fréquence d'apparition ou probabilité d'occurrence.
A
0
B
10
C
110
D
111
A
B
C D
0 1
1
1
0
0
 Inégalité de Kraft:
Si {w1, w2, …, wN} est un code préfixe binaire, alors il vérifie :
1
2 1k
N
l
k
−
=
≤∑
xk
wk
Mise en œuvre du TNS Page 32 sur 64
Compression
Compression Huffman
Le code préfixe associé à l’arbre créé (appelé "code de Huffman") minimise la
longueur moyenne parmi tous les codes préfixes :
1
N
moy k k
k
L l p
=
= ∑
 Remarques :
Le code de Huffman vérifie donc :
Il n’y a pas unicité du code minimal : il peut y avoir des choix de fusion dans
l’algorithme de Huffman, et le choix d’affectation des branches "gauche" et
"droite" n’est pas spécifié.
( ) ( ) 1moyH X L H x≤ < +
 Code Huffman: On considère l’arbre binaire pondéré construit
récursivement selon l’algorithme suivant :
 Initialisation : les symboles, pondérés par leur probabilité, sont les feuilles.
 Itération : tant que le graphe courant n’est pas connexe, fusionner les
deux arbres dont les racines sont de poids les plus petits en créant une nouvelle
racine de poids égal à la somme de ces poids, liée à ces deux sous-arbres.
Mise en œuvre du TNS Page 33 sur 64
Compression
Compression Huffman
 Code Huffman: On considère l’arbre binaire pondéré construit
récursivement selon l’algorithme suivant :
 Initialisation : les symboles, pondérés par leur probabilité, sont les feuilles.
 Itération : tant que le graphe courant n’est pas connexe, fusionner les
deux arbres dont les racines sont de poids les plus petits en créant une nouvelle
racine de poids égal à la somme de ces poids, liée à ces deux sous-arbres.
E
0,25
01
xk
pk
wk
 Exemple:
Soit un alphabet à 8 symboles : X = {A; B; C; D; E; F; G; H}, classés
par ordre décroissant de fréquence d'apparition ou probabilité d'occurrence.
A
0,20
11
B
0,15
001
D
0,15
101
C
0,10
100
G
0,05
0001
H
0,05
00001
F
0,05
00000
 Décoder: "1000010001010100000100" et "0000010001010100000100".
Mise en œuvre du TNS Page 34 sur 64
xk
pk
Compression
Compression Huffman
 Code Huffman: Méthode d'élaboration :
 Arbre : Fusionner les deux arbres dont les racines sont de poids les plus
petits en créant une nouvelle racine de poids égal à la somme de ces poids, liée
à ces deux sous-arbres.
E
0,25
A
0,20
B
0,15
D
0,15
C
0,10
G
0,05
H
0,05
F
0,05
0,10
0,15
0,25
0,300,45
0,55
1,00
Mise en œuvre du TNS Page 35 sur 64
Compression
Compression Huffman
 Code Huffman: Méthode de lecture de l ’arbre :
 Le décodage d’un mot consiste à parcourir l’arbre en choisissant les
branches de gauche ou de droite selon la valeur 0 ou 1 lue ; lorsqu’on arrive à
une feuille on écrit la lettre correspondante et on continue la lecture après être
revenu à la racine.
0,10
0,15
0,25
0,300,45
0,55
1,00
E
0,25
00
xk
pk
wk
A
0,20
01
B
0,15
100
D
0,15
101
C
0,10
110
G
0,05
1110
H
0,05
11110
F
0,05
11111
Mise en œuvre du TNS Page 36 sur 64
Compression
Compression Huffman
 Code Huffman: Méthode d'élaboration :
 Tableau : Fusionner les deux probabilités de poids les plus petits en créant
une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux
sous-arbres.
E
0,25
01
00
xk
pk
wk
wk
A
0,20
11
01
B
0,15
001
100
D
0,15
101
101
C
0,10
100
110
G
0,05
0001
1110
H
0,05
00001
11110
F
0,05
00000
11111
Solution 1
Solution 2
 Décoder: "1000010001010100000100" et "0000010001010100000100".
 On vérifie facilement qu’il s’agit bien d’un code préfixe :
aucun code n’est le préfixe d’un autre.
 On obtient un code Huffman différent de celui proposé initialement :
il n ’y a pas unicité de la solution...
Mise en œuvre du TNS Page 37 sur 64
Compression
Compression Huffman
 Code Huffman: Méthode d'élaboration :
 Tableau : Fusionner les deux probabilités de poids les plus petits en créant
une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux
sous-arbres.
xk pk It.1 It.2 It.3 It.4 It.5 It.6
E 0,25 0,25 0,25 0,25 0,30 0,45 0,55
A 0,20 0,20 0,20 0,25 0,25 0,30 0,45
B 0,15 0,15 0,15 0,20 0,25 0,25
D 0,15 0,15 0,15 0,15 0,20
C 0,10 0,10 0,15 0,15
G 0,05 0,10 0,10
H 0,05 0,05
F 0,05
Mise en œuvre du TNS Page 38 sur 64
Compression
Compression Huffman
 Code Huffman: Méthode d'élaboration :
 Tableau : Fusionner les deux probabilités de poids les plus petits en créant
une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux
sous-arbres.
xk pk It.1 It.2 It.3 It.4 It.5 It.6
E 0,25 0,25 0,25 0,25 0,30 0,45 0,55
A 0,20 0,20 0,20 0,25 0,25 0,30 0,45
B 0,15 0,15 0,15 0,20 0,25 0,25
D 0,15 0,15 0,15 0,15 0,20
C 0,10 0,10 0,15 0,15
G 0,05 0,10 0,10
H 0,05 0,05
F 0,05
0
100
01
00
01
Mise en œuvre du TNS Page 39 sur 64
Compression
Compression Huffman
 Code Huffman: Méthode d'élaboration :
 Tableau : Fusionner les deux probabilités de poids les plus petits en créant
une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux
sous-arbres.
xk pk It.1 It.2 It.3 It.4 It.5 It.6
E 0,25 0,25 0,25 0,25 0,30 0,45 0,55
A 0,20 0,20 0,20 0,25 0,25 0,30 0,45
B 0,15 0,15 0,15 0,20 0,25 0,25
D 0,15 0,15 0,15 0,15 0,20
C 0,10 0,10 0,15 0,15
G 0,05 0,10 0,10
H 0,05 0,05
F 0,05
0
1
1
00
01
00
01
10
11
Mise en œuvre du TNS Page 40 sur 64
Compression
Compression Huffman
 Code Huffman: Méthode d'élaboration :
 Tableau : Fusionner les deux probabilités de poids les plus petits en créant
une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux
sous-arbres.
xk pk It.1 It.2 It.3 It.4
E 0,25 0,25 0,25 0,25 0,30
A 0,20 0,20 0,20 0,25 0,25
B 0,15 0,15 0,15 0,20 0,25
D 0,15 0,15 0,15 0,15 0,20
C 0,10 0,10 0,15 0,15
G 0,05 0,10 0,10
H 0,05 0,05
F 0,05
00
01
10
11000
001
Mise en œuvre du TNS Page 41 sur 64
Compression
Compression Huffman
 Code Huffman: Méthode d'élaboration :
 Tableau : Fusionner les deux probabilités de poids les plus petits en créant
une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux
sous-arbres.
xk pk It.1 It.2 It.3
E 0,25 0,25 0,25 0,25
A 0,20 0,20 0,20 0,25
B 0,15 0,15 0,15 0,20
D 0,15 0,15 0,15 0,15
C 0,10 0,10 0,15 0,15
G 0,05 0,10 0,10
H 0,05 0,05
F 0,05
01
10
11
000
001
Mise en œuvre du TNS Page 42 sur 64
Compression
Compression Huffman
 Code Huffman: Méthode d'élaboration :
 Tableau : Fusionner les deux probabilités de poids les plus petits en créant
une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux
sous-arbres.
xk pk It.1 It.2 It.3
E 0,25 0,25 0,25 0,25
A 0,20 0,20 0,20 0,25
B 0,15 0,15 0,15 0,20
D 0,15 0,15 0,15 0,15
C 0,10 0,10 0,15 0,15
G 0,05 0,10 0,10
H 0,05 0,05
F 0,05
01
10
11
000
001100
101
Mise en œuvre du TNS Page 43 sur 64
Compression
Compression Huffman
 Code Huffman: Méthode d'élaboration :
 Tableau : Fusionner les deux probabilités de poids les plus petits en créant
une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux
sous-arbres.
xk pk It.1 It.2 It.3
E 0,25 0,25 0,25 0,25
A 0,20 0,20 0,20 0,25
B 0,15 0,15 0,15 0,20
D 0,15 0,15 0,15 0,15
C 0,10 0,10 0,15 0,15
G 0,05 0,10 0,10
H 0,05 0,05
F 0,05
01
10
11
000
001
01
11
000
001
100
101
Mise en œuvre du TNS Page 44 sur 64
Compression
Compression Huffman
 Code Huffman: Méthode d'élaboration :
 Tableau : Fusionner les deux probabilités de poids les plus petits en créant
une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux
sous-arbres.
xk pk It.1 It.2
E 0,25 0,25 0,25
A 0,20 0,20 0,20
B 0,15 0,15 0,15
D 0,15 0,15 0,15
C 0,10 0,10 0,15
G 0,05 0,10 0,10
H 0,05 0,05
F 0,05
01
11
000
001
100
1011000
1001
Mise en œuvre du TNS Page 45 sur 64
Compression
Compression Huffman
 Code Huffman: Méthode d'élaboration :
 Tableau : Fusionner les deux probabilités de poids les plus petits en créant
une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux
sous-arbres.
xk pk It.1 It.2
E 0,25 0,25 0,25
A 0,20 0,20 0,20
B 0,15 0,15 0,15
D 0,15 0,15 0,15
C 0,10 0,10 0,15
G 0,05 0,10 0,10
H 0,05 0,05
F 0,05
01
11
000
001
100
101
01
11
000
001
101
1000
1001
Mise en œuvre du TNS Page 46 sur 64
Compression
Compression Huffman
 Code Huffman: Méthode d'élaboration :
 Tableau : Fusionner les deux probabilités de poids les plus petits en créant
une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux
sous-arbres.
xk pk It.1
E 0,25 0,25
A 0,20 0,20
B 0,15 0,15
D 0,15 0,15
C 0,10 0,10
G 0,05 0,10
H 0,05 0,05
F 0,05
01
11
000
001
101
1000
1001
01
11
000
001
101
1001
10000
10001
Mise en œuvre du TNS Page 47 sur 64
Compression
Compression Huffman
 Code Huffman: Méthode d'élaboration :
 Tableau : Fusionner les deux probabilités de poids les plus petits en créant
une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux
sous-arbres.
E
0,25
01
01
xk
pk
wk
wk
A
0,20
11
11
B
0,15
001
000
D
0,15
101
001
C
0,10
100
101
G
0,05
0001
1001
H
0,05
00001
10000
F
0,05
00000
10001
Solution 1
Solution 3
 Décoder: "1000010001010100000100" et "0000010001010100000100".
 On vérifie facilement qu’il s’agit bien d’un code préfixe :
aucun code n’est le préfixe d’un autre.
 On obtient un code Huffman différent de celui proposé initialement :
il n ’y a pas unicité de la solution...
Mise en œuvre du TNS Page 48 sur 64
Compression
Compression
 Autres codes de compression:
 Codage arithmétique (1976) :
Comme le codage de Huffman, le codage arithmétique appartient à la famille
des codages entropiques, dans le sens où il se base sur les fréquences
d’apparition des lettres pour coder avec peu de bits une lettre très fréquente.
Dans le codage arithmétique, un message est codé par un décimal entre 0 et 1.
 Codage LZW (Lempel, Ziv, Welch,1984) :
Dans les codages entropiques du type de celui de Huffman, un dictionnaire est
créé pour associer à chaque lettre de l’alphabet un mot binaire (de longueur
variable), à l’aide des statistiques de fréquence des lettres dans le message à
compresser. Dans le codage de LZW, le dictionnaire associe à des chaîne de
lettres de longueur variable figurant dans le message à compresser des mots
binaires de longueur fixée. Ceci permet d’exploiter les corrélations entre les
sorties de la source X.
Mise en œuvre du TNS Page 49 sur 64
Compression
Compression
 Autres codes de compression:
 Comparaison:
The LZ methods are denoted by "o", the PPM methods by "*", and the BWT methods by "•".
http://sun.aei.polsl.pl/~sdeor/pub/deo03.pdf, p.107-115
Mise en œuvre du TNS Page 50 sur 64
Compression
Compression
 Formats informatiques:
 Données : ZIP, RAR, 7z...
 Images : BMP RLE (8 bits), GIF (8 bits), PNG (24 bits)...
 Exemple : Image 800x600 avec 4 quartiers : rouge, vert, bleu, gris.
Compression ZIP: 5 344 octets
Compression RAR: 4 755 octets
Compression 7zip: 2 522 octets
Original BMP (24 bits): 1 440 054 octets
Compression BMP (RLE): 7 078 octets
Compression GIF (8 bits): 4 656 octets
Compression PNG (24 bits): 2 805 octets
 Exercice : Retrouver la taille du fichier BMP (24 bits) par le calcul.
Mise en œuvre du TNS Page 51 sur 64
Compression
Compression
 Formats informatiques:
 Données : ZIP, RAR, 7z...
 Images : BMP RLE (8 bits), GIF (8 bits), PNG (24 bits)...
 Exemple 2 : Image 800x600 avec de nombreuses détails.
Compression ZIP: 882 523 octets
Compression RAR: 779 488 octets
Compression 7zip: 715 501 octets
Original BMP (24 bits): 1 440 054 octets
Compression BMP (RLE): 365 908 octets
Compression GIF (8 bits): 222 321 octets
Compression PNG (24 bits): 697 615 octets
Mise en œuvre du TNS Page 52 sur 64
3.2. Compression destructive
Mise en œuvre du TNS Page 53 sur 64
Compression destructive
Compression numérique avec perte
 Dans de nombreux domaines (image, son), la restitution des données sans
pertes n’est pas un impératif absolu. Pour étayer ce constat, on peut partir de
considérations mathématiques, mais aussi physiques et physiologiques.
 Considération mathématique: Décroissance des coefficients de Fourier
Ce constat donne l’idée de "compresser" les signaux en ne transmettant que les
coefficients de Fourier suffisamment grands (puisqu’un certain nombre,
correspondant à |n| grand, seront assez petits), par exemple en tronquant la
série de Fourier. Néanmoins, ceci est la cause des phénomènes de pré-écho
dans les fichiers MP3, ou du phénomène de ringing (surlignage des bords
contrastés) dans les fichiers JPEG.
 Considération physique: Au-delà d’un certain échantillonnage et d’une
certaine quantification, le signal parait continu à nos sens.
 Considération physiologique: Nos sens sont "aveuglés" par des composantes
dominantes, on parle de masquage.
Mise en œuvre du TNS Page 54 sur 64
TCD
Zig-ZagBloc 8x8
1,2,….
DC AC
AC
Run Length Coding
Compression destructive
Compression numérique avec perte
 Le format JPG : La compression JPEG (Joint Photographies Experts Group)
 Schéma de principe :
Mise en œuvre du TNS Page 55 sur 64
Compression numérique avec perte
Image originale Image reconstruite Image erreurCoefficients TCD
64 coefficients
Compression destructive
32 coefficients
 Le format JPG : La compression JPEG (Joint Photographies Experts Group)
Mise en œuvre du TNS Page 56 sur 64
Compression numérique avec perte
Compression destructive
Image originale Image reconstruite Image erreurCoefficients TCD
8 coefficients
1 coefficient
 Le format JPG : La compression JPEG (Joint Photographies Experts Group)
Mise en œuvre du TNS Page 57 sur 64
Compression numérique avec perte
Compression destructive
 Le format JPG : La compression JPEG (Joint Photographies Experts Group)
Référence
11 240 octets
FQ = 4
2 582 octets
α = 23%
FQ = 10
1 582 octets
α = 14%
FQ = 100
528 octets
α = 5%
Mise en œuvre du TNS Page 58 sur 64
Compression
Compression numérique avec perte
 Le format JPG : Compression
Données :
FQ=1: 409 302 octets
FQ=2: 348 320 octets
FQ=5: 259 456 octets
FQ=10: 189 363 octets
FQ=20: 135 222 octets
FQ=50: 84 788 octets
FQ=99: 17 835 octets
Mise en œuvre du TNS Page 59 sur 64
Compression
Compression numérique avec perte
 Le format JPG : Compression
Principe :
Avec le schéma de codage très simplifié suivant, on remarque que le codage
nous délivre deux tables (quatre pour une image couleur). Ces tables étant
enregistrées dans le fichier final peuvent être choisies par le compresseur.
Schéma de codage simplifié.
Mise en œuvre du TNS Page 60 sur 64
Courbe de sensibilité de l ’oreille humaineA (dB)
Fréquence
120
0
60
log(f)
Seuil de
perception
Zone audible
son S1son S2
Au dessous du seuil,
les sons ne
sont plus audibles
Compression numérique avec perte
Compression destructive
 Le format MP1 audio : fondé sur le standard MUSICAM
(Masking Pattern Adapted Universal Subband Integrated Coding)
 Débit WAV (CD) :Débit 1411 kb/s (2x44100/sx16bits).
 Débit MPEG 1 : Débit 192 kb/s (2x96kbits/s)
Mise en œuvre du TNS Page 61 sur 64
A (dB)
Fréquence
120
0
60
log(f)
Seuil de
perception
Zone audible
S1 S2
A (dB)
Fréquence
120
0
60
log(f)
Zone audible
 Le son S2 ne doit pas être pris
en compte : il est masqué par un
son S1 plus important.
 Le seuil de perception varie
en fonction du contenu spectral.
Compression numérique avec perte
Compression destructive
 Le format MP1 audio : fondé sur le standard MUSICAM
S1 S3S2
Seuil de
perception
S4
Mise en œuvre du TNS Page 62 sur 64
Sous-bande 750 Hz
f
fe/2 =24 kHz
A (dB)
Fréquences
120
0
60
log(f)
Compression numérique avec perte
Compression destructive
 Le format MP1 audio : fondé sur le standard MUSICAM
 Les spectre audio est découpé en 32 sous-bandes de fréquence :
 La courbe de masquage est déterminée en
temps réel : modèle psycho-acoustique.
 La quantification varie en fonction
de la sensibilité de l’oreille : modèle
psycho-acoustique.
Modèle
psycho-acoustique
Mise en œuvre du TNS Page 63 sur 64
Images animées
Numérisation
Quantification
DCT
Seuillage
RLC
Huffman (VLC)
MPEG
Compression
temporelle
Compression
spatiale
Non réversible
Production d ’une séquence MPEG
Compression destructive
Mise en œuvre du TNS Page 64 sur 64
 Image spatiale → Image fréquentielle (TCD)
 Image fréquentielle → Spectre 2D
 Quantification → Privilégie les harmoniques principaux
 Codage du Run Length Code (RLC) + Codage d ’Huffman
 Méthode Zig-Zag
Production d ’une séquence MPEG
Compression destructive
 Méthode irréversible : Taux de compression élevé => Perte d’information élevée
 Compression temporelle → Trame de référence.

Contenu connexe

Tendances

Projet de communication numérique Réalisation d'une chaîne de transmission nu...
Projet de communication numérique Réalisation d'une chaîne de transmission nu...Projet de communication numérique Réalisation d'une chaîne de transmission nu...
Projet de communication numérique Réalisation d'une chaîne de transmission nu...Yassine Nasser
 
Rapport de Mémoire Master Recherche
Rapport de Mémoire Master RechercheRapport de Mémoire Master Recherche
Rapport de Mémoire Master RechercheRouâa Ben Hammouda
 
Introduction à La Sécurité Informatique 1/2
Introduction à La Sécurité Informatique 1/2Introduction à La Sécurité Informatique 1/2
Introduction à La Sécurité Informatique 1/2Sylvain Maret
 
Chapitre ii mémoires
Chapitre ii mémoiresChapitre ii mémoires
Chapitre ii mémoiresSana Aroussi
 
chap1 generalites_signaux-systemes
chap1 generalites_signaux-systemeschap1 generalites_signaux-systemes
chap1 generalites_signaux-systemesBAKKOURY Jamila
 
Ch4 circuitscombinatoires
Ch4 circuitscombinatoiresCh4 circuitscombinatoires
Ch4 circuitscombinatoiresmickel iron
 
Automatisation d'une maison intelligente via une application android
Automatisation d'une maison intelligente via une application androidAutomatisation d'une maison intelligente via une application android
Automatisation d'une maison intelligente via une application androidAbderrahim Bouharaoua
 
Conception et réalisation d'une plateforme éducative (LMS).
Conception et réalisation d'une plateforme éducative (LMS).Conception et réalisation d'une plateforme éducative (LMS).
Conception et réalisation d'une plateforme éducative (LMS).Nidhal Harrathi
 
Tp 1 transmission de donné inisiallisation à simulink matlab
Tp 1 transmission de donné inisiallisation à simulink matlabTp 1 transmission de donné inisiallisation à simulink matlab
Tp 1 transmission de donné inisiallisation à simulink matlabhamdinho
 
Sécurité des systèmes d'informations
Sécurité des systèmes d'informations Sécurité des systèmes d'informations
Sécurité des systèmes d'informations Emna Tfifha
 
td_devoirs_2013.pdf
td_devoirs_2013.pdftd_devoirs_2013.pdf
td_devoirs_2013.pdfMeryemH2
 
OCDIE : Gestion de l’Information et des Connaissances
OCDIE : Gestion de l’Information et des ConnaissancesOCDIE : Gestion de l’Information et des Connaissances
OCDIE : Gestion de l’Information et des ConnaissancesAref Jdey
 
IoT (l'Internet des Objets) et le protocole de telecommunication LoRaWan
IoT (l'Internet des Objets) et le protocole de telecommunication LoRaWanIoT (l'Internet des Objets) et le protocole de telecommunication LoRaWan
IoT (l'Internet des Objets) et le protocole de telecommunication LoRaWanCorneliu Gaina
 

Tendances (20)

Gestion de formulaires en PHP
Gestion de formulaires en PHPGestion de formulaires en PHP
Gestion de formulaires en PHP
 
Modele-elearning
Modele-elearningModele-elearning
Modele-elearning
 
Transmission de signal
Transmission de signalTransmission de signal
Transmission de signal
 
Projet de communication numérique Réalisation d'une chaîne de transmission nu...
Projet de communication numérique Réalisation d'une chaîne de transmission nu...Projet de communication numérique Réalisation d'une chaîne de transmission nu...
Projet de communication numérique Réalisation d'une chaîne de transmission nu...
 
Tp 1
Tp 1Tp 1
Tp 1
 
Rapport de Mémoire Master Recherche
Rapport de Mémoire Master RechercheRapport de Mémoire Master Recherche
Rapport de Mémoire Master Recherche
 
Introduction à La Sécurité Informatique 1/2
Introduction à La Sécurité Informatique 1/2Introduction à La Sécurité Informatique 1/2
Introduction à La Sécurité Informatique 1/2
 
Chapitre ii mémoires
Chapitre ii mémoiresChapitre ii mémoires
Chapitre ii mémoires
 
chap1 generalites_signaux-systemes
chap1 generalites_signaux-systemeschap1 generalites_signaux-systemes
chap1 generalites_signaux-systemes
 
Ch4 circuitscombinatoires
Ch4 circuitscombinatoiresCh4 circuitscombinatoires
Ch4 circuitscombinatoires
 
Cahier Meca 4 ST Part 1/2
Cahier Meca 4 ST Part 1/2Cahier Meca 4 ST Part 1/2
Cahier Meca 4 ST Part 1/2
 
CM4 - Transformée en z
CM4 - Transformée en zCM4 - Transformée en z
CM4 - Transformée en z
 
Automatisation d'une maison intelligente via une application android
Automatisation d'une maison intelligente via une application androidAutomatisation d'une maison intelligente via une application android
Automatisation d'une maison intelligente via une application android
 
Conception et réalisation d'une plateforme éducative (LMS).
Conception et réalisation d'une plateforme éducative (LMS).Conception et réalisation d'une plateforme éducative (LMS).
Conception et réalisation d'une plateforme éducative (LMS).
 
Tp 1 transmission de donné inisiallisation à simulink matlab
Tp 1 transmission de donné inisiallisation à simulink matlabTp 1 transmission de donné inisiallisation à simulink matlab
Tp 1 transmission de donné inisiallisation à simulink matlab
 
Sécurité des systèmes d'informations
Sécurité des systèmes d'informations Sécurité des systèmes d'informations
Sécurité des systèmes d'informations
 
Formation stm32
Formation stm32Formation stm32
Formation stm32
 
td_devoirs_2013.pdf
td_devoirs_2013.pdftd_devoirs_2013.pdf
td_devoirs_2013.pdf
 
OCDIE : Gestion de l’Information et des Connaissances
OCDIE : Gestion de l’Information et des ConnaissancesOCDIE : Gestion de l’Information et des Connaissances
OCDIE : Gestion de l’Information et des Connaissances
 
IoT (l'Internet des Objets) et le protocole de telecommunication LoRaWan
IoT (l'Internet des Objets) et le protocole de telecommunication LoRaWanIoT (l'Internet des Objets) et le protocole de telecommunication LoRaWan
IoT (l'Internet des Objets) et le protocole de telecommunication LoRaWan
 

En vedette

SE1 - CM Composants - De la diode à l'ADI
SE1 - CM Composants - De la diode à l'ADISE1 - CM Composants - De la diode à l'ADI
SE1 - CM Composants - De la diode à l'ADIPierre Maréchal
 
CM2 - Conversion Anlogique Numérique
CM2 - Conversion Anlogique NumériqueCM2 - Conversion Anlogique Numérique
CM2 - Conversion Anlogique NumériquePierre Maréchal
 
CM3 - Transformée de Fourier
CM3 - Transformée de FourierCM3 - Transformée de Fourier
CM3 - Transformée de FourierPierre Maréchal
 
Ener1 - CM5 - Sécurité électrique
Ener1 - CM5 - Sécurité électriqueEner1 - CM5 - Sécurité électrique
Ener1 - CM5 - Sécurité électriquePierre Maréchal
 
Ener1 - CM3 - Puissance électrique
Ener1  - CM3 - Puissance électriqueEner1  - CM3 - Puissance électrique
Ener1 - CM3 - Puissance électriquePierre Maréchal
 
Ener1 - CM4 - Distribution électrique
Ener1 - CM4 - Distribution électriqueEner1 - CM4 - Distribution électrique
Ener1 - CM4 - Distribution électriquePierre Maréchal
 
Instrumentation et régulation
Instrumentation et régulationInstrumentation et régulation
Instrumentation et régulationPierre Maréchal
 
Toutes les schémas de démarrage d'un moteur asynchrone par www.genie electrom...
Toutes les schémas de démarrage d'un moteur asynchrone par www.genie electrom...Toutes les schémas de démarrage d'un moteur asynchrone par www.genie electrom...
Toutes les schémas de démarrage d'un moteur asynchrone par www.genie electrom...Imed Frioukh
 
Eclairage et electricité
Eclairage et electricitéEclairage et electricité
Eclairage et electricitéSami Sahli
 
Electricité : sécurité électrique (CM1)
Electricité : sécurité électrique (CM1)Electricité : sécurité électrique (CM1)
Electricité : sécurité électrique (CM1)Christophe Palermo
 
Schémas électriques
Schémas électriquesSchémas électriques
Schémas électriqueszakarianho10
 
Guide eclairage public
Guide eclairage publicGuide eclairage public
Guide eclairage publicbenzid dziri
 
Cour installation electrique bedoui iset-ksar-hellal
Cour installation electrique bedoui iset-ksar-hellalCour installation electrique bedoui iset-ksar-hellal
Cour installation electrique bedoui iset-ksar-hellalhassen_be
 

En vedette (20)

SE1 - CM Composants - De la diode à l'ADI
SE1 - CM Composants - De la diode à l'ADISE1 - CM Composants - De la diode à l'ADI
SE1 - CM Composants - De la diode à l'ADI
 
CM2 - Conversion Anlogique Numérique
CM2 - Conversion Anlogique NumériqueCM2 - Conversion Anlogique Numérique
CM2 - Conversion Anlogique Numérique
 
Ener1 - CM1 - Monophasé
Ener1 - CM1 - MonophaséEner1 - CM1 - Monophasé
Ener1 - CM1 - Monophasé
 
CM3 - Transformée de Fourier
CM3 - Transformée de FourierCM3 - Transformée de Fourier
CM3 - Transformée de Fourier
 
Ener1 - CM5 - Sécurité électrique
Ener1 - CM5 - Sécurité électriqueEner1 - CM5 - Sécurité électrique
Ener1 - CM5 - Sécurité électrique
 
Ener1 - CM3 - Puissance électrique
Ener1  - CM3 - Puissance électriqueEner1  - CM3 - Puissance électrique
Ener1 - CM3 - Puissance électrique
 
Ener1 - CM2 - Triphasé
Ener1 - CM2 - TriphaséEner1 - CM2 - Triphasé
Ener1 - CM2 - Triphasé
 
Ener1 - CM4 - Distribution électrique
Ener1 - CM4 - Distribution électriqueEner1 - CM4 - Distribution électrique
Ener1 - CM4 - Distribution électrique
 
Instrumentation et régulation
Instrumentation et régulationInstrumentation et régulation
Instrumentation et régulation
 
chap4 codes-en-ligne
chap4 codes-en-lignechap4 codes-en-ligne
chap4 codes-en-ligne
 
Techniques de transmission
Techniques de transmissionTechniques de transmission
Techniques de transmission
 
Toutes les schémas de démarrage d'un moteur asynchrone par www.genie electrom...
Toutes les schémas de démarrage d'un moteur asynchrone par www.genie electrom...Toutes les schémas de démarrage d'un moteur asynchrone par www.genie electrom...
Toutes les schémas de démarrage d'un moteur asynchrone par www.genie electrom...
 
Eclairage et electricité
Eclairage et electricitéEclairage et electricité
Eclairage et electricité
 
Electricité : sécurité électrique (CM1)
Electricité : sécurité électrique (CM1)Electricité : sécurité électrique (CM1)
Electricité : sécurité électrique (CM1)
 
Schémas électriques
Schémas électriquesSchémas électriques
Schémas électriques
 
Eléctricité
EléctricitéEléctricité
Eléctricité
 
Electricite
ElectriciteElectricite
Electricite
 
Guide eclairage public
Guide eclairage publicGuide eclairage public
Guide eclairage public
 
Réseaux électriques
Réseaux électriquesRéseaux électriques
Réseaux électriques
 
Cour installation electrique bedoui iset-ksar-hellal
Cour installation electrique bedoui iset-ksar-hellalCour installation electrique bedoui iset-ksar-hellal
Cour installation electrique bedoui iset-ksar-hellal
 

Similaire à CM1 - Signal et Information

Les mathématiques au service du transport de l’information
Les mathématiques au service du transport de l’informationLes mathématiques au service du transport de l’information
Les mathématiques au service du transport de l’informationDany-Jack Mercier
 
TRANSMISSION NUMERIQUE Année 2022-2023 CEFIB
TRANSMISSION NUMERIQUE Année 2022-2023 CEFIBTRANSMISSION NUMERIQUE Année 2022-2023 CEFIB
TRANSMISSION NUMERIQUE Année 2022-2023 CEFIBYounoussKEITA
 
Présentation d'enseignant
Présentation d'enseignantPrésentation d'enseignant
Présentation d'enseignantmajido19
 
Lamini&farsane traitement de_signale
Lamini&farsane traitement de_signaleLamini&farsane traitement de_signale
Lamini&farsane traitement de_signaleAsmae Lamini
 
seminaires_crytage_vision compression video
seminaires_crytage_vision compression videoseminaires_crytage_vision compression video
seminaires_crytage_vision compression videoKibeyaHassan1
 
Code Correcteurs d'Erreurs : Code linéaire, code cyclique , code goppa
Code Correcteurs d'Erreurs :  Code linéaire, code cyclique , code goppa  Code Correcteurs d'Erreurs :  Code linéaire, code cyclique , code goppa
Code Correcteurs d'Erreurs : Code linéaire, code cyclique , code goppa SALMARACHIDI1
 
Codes Correcteurs d’Erreurs.pptx
Codes Correcteurs d’Erreurs.pptxCodes Correcteurs d’Erreurs.pptx
Codes Correcteurs d’Erreurs.pptxHajar Bouchriha
 
cours1 (1).pdf
cours1 (1).pdfcours1 (1).pdf
cours1 (1).pdfAlynaEla
 
fdocuments.net_traitement-signal.ppt
fdocuments.net_traitement-signal.pptfdocuments.net_traitement-signal.ppt
fdocuments.net_traitement-signal.pptdocteurgyneco1
 
Le traitement du signal en Audio. Les procédés de compression audio. Présent...
Le traitement du signal en Audio. Les  procédés de compression audio. Présent...Le traitement du signal en Audio. Les  procédés de compression audio. Présent...
Le traitement du signal en Audio. Les procédés de compression audio. Présent...Vincent RECIPON
 
traitement_signal.pdf
traitement_signal.pdftraitement_signal.pdf
traitement_signal.pdfwaelHechmi
 
Présentation telegramme morlaix
Présentation telegramme morlaixPrésentation telegramme morlaix
Présentation telegramme morlaixArkhenum
 
Vocabulaire de base en science d'information
Vocabulaire de base en science d'informationVocabulaire de base en science d'information
Vocabulaire de base en science d'informationJaouad Rachek
 
03- couche physique - Médias et transmission - ESTG.pptx
03- couche physique - Médias et transmission - ESTG.pptx03- couche physique - Médias et transmission - ESTG.pptx
03- couche physique - Médias et transmission - ESTG.pptxMinaNouhii
 
Chapitre 1 technique de transmission
Chapitre 1 technique de transmissionChapitre 1 technique de transmission
Chapitre 1 technique de transmissionFodé Ndiaye
 
Generalities sur scanner et ses generation
Generalities sur scanner et ses generationGeneralities sur scanner et ses generation
Generalities sur scanner et ses generationranahadjadji
 
Chapitre 1 Définitions et vocabulaires de base.pdf
Chapitre 1 Définitions et vocabulaires de base.pdfChapitre 1 Définitions et vocabulaires de base.pdf
Chapitre 1 Définitions et vocabulaires de base.pdfYounesAziz3
 
Turbo code
Turbo codeTurbo code
Turbo coden allali
 

Similaire à CM1 - Signal et Information (20)

Cours4 gdm
Cours4 gdmCours4 gdm
Cours4 gdm
 
Les mathématiques au service du transport de l’information
Les mathématiques au service du transport de l’informationLes mathématiques au service du transport de l’information
Les mathématiques au service du transport de l’information
 
Cours6 cdmm suite
Cours6 cdmm suiteCours6 cdmm suite
Cours6 cdmm suite
 
TRANSMISSION NUMERIQUE Année 2022-2023 CEFIB
TRANSMISSION NUMERIQUE Année 2022-2023 CEFIBTRANSMISSION NUMERIQUE Année 2022-2023 CEFIB
TRANSMISSION NUMERIQUE Année 2022-2023 CEFIB
 
Présentation d'enseignant
Présentation d'enseignantPrésentation d'enseignant
Présentation d'enseignant
 
Lamini&farsane traitement de_signale
Lamini&farsane traitement de_signaleLamini&farsane traitement de_signale
Lamini&farsane traitement de_signale
 
seminaires_crytage_vision compression video
seminaires_crytage_vision compression videoseminaires_crytage_vision compression video
seminaires_crytage_vision compression video
 
Code Correcteurs d'Erreurs : Code linéaire, code cyclique , code goppa
Code Correcteurs d'Erreurs :  Code linéaire, code cyclique , code goppa  Code Correcteurs d'Erreurs :  Code linéaire, code cyclique , code goppa
Code Correcteurs d'Erreurs : Code linéaire, code cyclique , code goppa
 
Codes Correcteurs d’Erreurs.pptx
Codes Correcteurs d’Erreurs.pptxCodes Correcteurs d’Erreurs.pptx
Codes Correcteurs d’Erreurs.pptx
 
cours1 (1).pdf
cours1 (1).pdfcours1 (1).pdf
cours1 (1).pdf
 
fdocuments.net_traitement-signal.ppt
fdocuments.net_traitement-signal.pptfdocuments.net_traitement-signal.ppt
fdocuments.net_traitement-signal.ppt
 
Le traitement du signal en Audio. Les procédés de compression audio. Présent...
Le traitement du signal en Audio. Les  procédés de compression audio. Présent...Le traitement du signal en Audio. Les  procédés de compression audio. Présent...
Le traitement du signal en Audio. Les procédés de compression audio. Présent...
 
traitement_signal.pdf
traitement_signal.pdftraitement_signal.pdf
traitement_signal.pdf
 
Présentation telegramme morlaix
Présentation telegramme morlaixPrésentation telegramme morlaix
Présentation telegramme morlaix
 
Vocabulaire de base en science d'information
Vocabulaire de base en science d'informationVocabulaire de base en science d'information
Vocabulaire de base en science d'information
 
03- couche physique - Médias et transmission - ESTG.pptx
03- couche physique - Médias et transmission - ESTG.pptx03- couche physique - Médias et transmission - ESTG.pptx
03- couche physique - Médias et transmission - ESTG.pptx
 
Chapitre 1 technique de transmission
Chapitre 1 technique de transmissionChapitre 1 technique de transmission
Chapitre 1 technique de transmission
 
Generalities sur scanner et ses generation
Generalities sur scanner et ses generationGeneralities sur scanner et ses generation
Generalities sur scanner et ses generation
 
Chapitre 1 Définitions et vocabulaires de base.pdf
Chapitre 1 Définitions et vocabulaires de base.pdfChapitre 1 Définitions et vocabulaires de base.pdf
Chapitre 1 Définitions et vocabulaires de base.pdf
 
Turbo code
Turbo codeTurbo code
Turbo code
 

CM1 - Signal et Information

  • 1. Mise en œuvre du TNS Page 1 sur 64 Novembre 2012. Traitement Numérique du Signal CM1 : Signal et information Université du Havre, IUT du Havre Département GEII
  • 2. Mise en œuvre du TNS Page 2 sur 64 PPN 2008: MC-II3 Traitement du signal Applications en GEII Mise en œuvre Test DSP CAN/CNA TF, compression, codage
  • 3. Mise en œuvre du TNS Page 3 sur 64 Signal et Information  Information  Signal  Compression sans perte  Compression destructive  Conclusion Plan
  • 4. Mise en œuvre du TNS Page 4 sur 64 1. Information
  • 5. Mise en œuvre du TNS Page 5 sur 64 Information  Sens du mot information: Information : Contenu, intérêt  L'information est un concept ayant plusieurs sens. Il est étroitement lié aux notions de contrainte, communication, contrôle, donnée, formulaire, instruction , connaissance, signification, perception et représentation.  L'information désigne à la fois le message à communiquer et les symboles utilisés pour l'écrire ; elle utilise un code de signes porteurs de sens tels qu'un alphabet de lettres, une base de chiffres, des idéogrammes ou pictogrammes.  Au sens étymologique, l'information est ce qui donne une forme à l'esprit.  Elle vient du verbe latin informare, qui signifie "donner forme à" ou "se former une idée de".  Hors contexte, elle représente le véhicule des données comme dans la théorie de l'information et, hors support, elle représente un facteur d'organisation. http://fr.wikipedia.org/wiki/Information
  • 6. Mise en œuvre du TNS Page 6 sur 64 Information  Sens du mot information: Information : Contenu, intérêt  Selon la théorie de l'information, des données contiennent de l'information quand celles-ci ne sont que peu compressibles et qu'elles sont complexes. En effet, l'information contenue dans un message composé d'une seule lettre se répétant un grand nombre de fois tel que « AAAAAAAAA... » est quasiment nulle.  La conception la plus répandue de l'information est liée au couple "message + récepteur", le dernier possédant des implicites valorisant le message (de fait, tout message est incompréhensible sans ces implicites).  Ainsi, la phrase "Médor est un chien" contient plus d'information que "Médor est un quadrupède", bien que la seconde contienne plus de lettres. La différence est à mettre au compte de la connaissance d'un dictionnaire implicite et faisant partie du contexte.  Les notions de quantité d'information et d'entropie font l'objet d'une discipline spécialisée, la théorie de l'information, initiée par Shannon. http://fr.wikipedia.org/wiki/Information
  • 7. Mise en œuvre du TNS Page 7 sur 64 Stockage Traitement Transmission Information  Vecteurs d’information: schéma fonctionnel  Sources d ’information;  Moyens de codage et d’adaptation;  Moyens de stockage, de traitement et de transmission. Information : Contenu, intérêt Adaptation Codage Adaptation Codage Présentation Utilisateur Source d’information Emetteur
  • 8. Mise en œuvre du TNS Page 8 sur 64 Information Information : Contenu, intérêt Source d'information Message Signal émis Émetteur Récepteur Destination Message Source de bruit Signal reçu Bruit + +  Vecteurs d’information: schéma fonctionnel  Sources d ’information;  Moyens de codage et d’adaptation;  Moyens de stockage, de traitement et de transmission.  Source de bruit: Perturbation.
  • 9. Mise en œuvre du TNS Page 9 sur 64 2. Signal
  • 10. Mise en œuvre du TNS Page 10 sur 64 Signal Signal : Message  Un signal est un message simplifié et généralement codé. Il existe sous forme d'objets ayant des formes particulières :  Il existe sous forme d'objet ayant une forme particulière. FRANCE FRANCE FR GERMANY ALLEMAGNE DE GREECE GRÈCE GR ITALY ITALIE IT SPAIN ESPAGNE ES UNITED KINGDOM ROYAUME-UNI GB Codets alpha-2 correspondants de l'ISO 3166-1 STOP
  • 11. Mise en œuvre du TNS Page 11 sur 64 Signal Signal : Message  Un signal est un message simplifié et généralement codé. Il existe sous forme d'objets ayant des formes particulières :  Le signal électrique est une des formes les plus récentes de signal. L'alphabet morse ou code morse, est un code permettant de transmettre un texte à l'aide de séries d'impulsions courtes et longues, qu'elles soit produites par des signes, une lumière ou un geste. Inventé par Samuel Morse en 1835 pour la télégraphie, ce codage de caractères assigne à chaque lettre, chiffre et signe de ponctuation une combinaison unique de signaux intermittents. Le code morse est considéré comme le précurseur des communications numériques.
  • 12. Mise en œuvre du TNS Page 12 sur 64 Signal Signal : Message  Un signal est un message simplifié et généralement codé. Il existe sous forme d'objets ayant des formes particulières :  En électronique, on utilise le signal analogique ou numérique.
  • 13. Mise en œuvre du TNS Page 13 sur 64 Signal Signal : Message  Un signal est un message simplifié et généralement codé. Il existe sous forme d'objets ayant des formes particulières :  En informatique, le signal permet la communication : Échange de données inter-processus. Synchronisation des processus.  Systèmes de transmission d'information entre périphériques : Filaire: IEEE 1394, SCSI, USB, ATA, SATA, eSATA… Réseau: Ethernet, InfiniBand, TokenTing, CPL… Sans fils: Bluetooth, WiFi, irDA, WirelessUSB  Les signaux lumineux permettent la communication à grande distance.
  • 14. Mise en œuvre du TNS Page 14 sur 64 Signal Signal : Extension  Une image est un signal (x, y).  En informatique, l'image brute (raw) est codée au format BMP :  Exemple : Image 4x2 = 8 pixels codés sur 24 bits(/pixel) 1 2 3 4 5 6 7 8  Taille du fichier (octets) : No = 24 bits = 3 octets Taille = En-tête + NX×NY×No Soit Taille = 54 + 4x2x3 = 78 octets NY = 2 pixels NX = 4 pixels
  • 15. Mise en œuvre du TNS Page 15 sur 64 Signal Signal : Extension  Une image est un signal (x, y).  En informatique, l'image brute (raw) est codée au format BMP :  Exemple : Pixel 1: Code RVB (little-endian) i.e. B = "FF", V = "00", R = "00"
  • 16. Mise en œuvre du TNS Page 16 sur 64 Signal Signal : Extension  Une image est un signal (x, y).  En informatique, l'image brute (raw) est codée au format BMP :  Exemple : Octets Signification 42 4D Caractères B($42) et M($4D) indiquant un fichier de type BMP 4E 00 00 00 Taille du fichier $0000004E = 78 octets (de l'offset 0 à l'offset 77) 00 00 00 00 Réservé (toujours à 0) 36 00 00 00 Offset de l'image $00000036 = 54 28 00 00 00 Taille de l'entête $00000028 = 40 octets 04 00 00 00 Largeur de l'image $00000004 = 4 pixels 02 00 00 00 Hauteur de l'image $00000002 = 2 pixels 01 00 Nombre de plans utilisés $0001 = 1 18 00 Nombre de bits par pixel = $0018 = 24 (3 octets) 00 00 00 00 Méthode de compression : 0 pas de compression 18 00 00 00 Taille de l'image $00000018 = 24 octets = 8 (pixels) x 3 (octets par pixel) C4 0E 00 00 Résolution horizontale $00000EC4 = 3780 pixels par mètre C4 0E 00 00 Résolution verticale $00000EC4 = 3780 pixels par mètre 00 00 00 00 Couleurs utilisées : 0 palette entière 00 00 00 00 Nombre de couleurs important 14 40
  • 17. Mise en œuvre du TNS Page 17 sur 64 Signal Signal : Extension  Une image est un signal (x, y).  En informatique, l'image brute (raw) est codée au format BMP : Octets Signification FF 00 00 B=255, V=0, R=0 : Bleu 00 00 00 B=0, V=0, R=0 : Noir FF 00 FF B=255, V=0, R=255 : Violet FF FF FF B=255, V=255, R=255 : Blanc 00 00 FF B=0, V=0, R=255 : Rouge 00 FF 00 B=0, V=255, R=0 : Vert 00 FF FF B=0, V=255, R=255 : Jaune FF FF 00 B=255, V=255, R=0 : Cyan
  • 18. Mise en œuvre du TNS Page 18 sur 64 Signal Signal : Extension  Un signal est un message simplifié et généralement codé. Ce signal peut comporter plus de une dimension :  En général, par signal on entend : y(x) ou x(t).  Par extension, une image (2D) est aussi un signal : Monochrome: (x, y, 0 ou 1) 16 couleurs: (x, y, 0 à 2^4−1) 256 couleurs: (x, y, 0 à 2^8−1) 65536 couleurs: (x, y, 0 à 2^16−1) 24 bits couleurs: (x, y, 0 à 2^24−1)  Par extension, une vidéo (3D) est aussi un signal : Monochrome: (x, y, t, 0 ou 1) 16 couleurs: (x, y, t, 0 à 2^4−1) 256 couleurs: (x, y, t, 0 à 2^8−1) 65536 couleurs: (x, y, t, 0 à 2^16−1) 24 bits couleurs: (x, y, t, 0 à 2^24−1)
  • 19. Mise en œuvre du TNS Page 19 sur 64 Signal Signal : Extension  Un signal est un message simplifié et généralement codé. Ce signal peut comporter un nombre de dimensions variables :  Par extension, une vidéo "3D" (hors temps, 4D en fait) est aussi un signal : Couleurs: (x, y, z, t, niveau couleur)  En pratique, une vidéo "3D" est constituée de deux vidéos, une pour chaque œil : principe de la stéréo Couleurs: 2×(x, y, t, niveau couleur)  Il existe cependant des vraies images 3D animées (4D, donc) : Scanner: (x, y, z, t, niveau couleur) http://fr.wikipedia.org/wiki/Scanner_(médecine)
  • 20. Mise en œuvre du TNS Page 20 sur 64 Signal Signal : Extension  Un signal est un message simplifié et généralement codé. Ce signal peut comporter un nombre de dimensions variables :  Se pose alors le problème de la représentation de ces données : http://fr.wikipedia.org/wiki/Imagerie_par_résonance_magnétique
  • 21. Mise en œuvre du TNS Page 21 sur 64 3. Compression
  • 22. Mise en œuvre du TNS Page 22 sur 64 Compression  Quantification du codage:  Quantification de l'information :  Codage adapté à l'alphabet.  Probabilité d'occurrence p(x) inconnue... Compression : Réduction du codage et conservation de l'information  Nombre de symboles.  Probabilité d'occurrence.  Nombre de symboles.  Nombre de bits nécessaires. Nombre de symbolesNom Binaire Doigts Jours Mois Chiffres Alphabet ASCII ASCII étendu Niveaux sur 16 bits Niveaux sur 24 bits 2 (0, 1) 5 (pouce, …, annulaire) 7 (lundi, …, dimanche) 12 (janvier, …, décembre) 10 (0 à 9) 26 (A à Z) 27 = 128 28 = 256 216 = 65536 224 = 16777216  Codage adapté à l'information: probabilité d'occurrence.  Codage intégrant des codes correcteurs.
  • 23. Mise en œuvre du TNS Page 23 sur 64 Compression  Quantité d'information:  On vérifie bien I(x) = 0 pour p(x) = 1 et I(x) → + ∞ pour p(x) = 0. Compression : Réduction du codage et conservation de l'information  Selon Shannon, la quantité d'information I(x) s'écrit : 2 1 ( ) log ( ) I x p x   =  ÷   ( )2( ) log ( )I x p x= −soit  La quantité d'information et son traitement sont directement liés à la base numérique de quantification (base 2) et à la nature de la source.
  • 24. Mise en œuvre du TNS Page 24 sur 64 Compression  Généralisation: avec Compression : Réduction du codage et conservation de l'information  Soit une source d'information discrète finie stationnaire sans mémoire, soit l'émission d'une variable aléatoire X = {x1 , x2 , …, xN } avec une probabilité d'occurrence p = {p(x1 ), p(x2 ), …, p(xN )} = {p1 , p2 , …, pN } associée respectivement à chacun des caractères, alors l'entropie [de Shannon] associée à chacun des caractères s'écrit : 2( ) . ( ) log ( )k k k k kH x p I x p p= = −  L'entropie d'une source d'information est la quantité d'information moyenne associée à chaque symbole de la source. L'entropie de Shannon s'écrit en fonction des probabilités d’occurrence pk de chacune des quantités d'information I(xk) constituant le signal : ( ) 2 1 ( ) ( ) log ( ) N k k k H X E I X p p = = = −∑ 1 1 N k k p = =∑
  • 25. Mise en œuvre du TNS Page 25 sur 64 Compression  Borne supérieure: Compression : Réduction du codage et conservation de l'information 2( ) log ( )H X N≤  Cette valeur limite de l'entropie Hmax(X), obtenue pour une distribution uniforme, constitue la borne supérieure de l'entropie : max 2( ) log ( )H X N= max 2 1 ( ) log ( ) N k k k H X p p = = −∑ soit  Dans le cas d'un alphabet constitué de N variables indépendantes et équiprobables, alors pn = 1/N pour tout 1 ≤ n ≤ Ν et l'entropie est maximale :
  • 26. Mise en œuvre du TNS Page 26 sur 64 Compression  Source binaire: Compression : Réduction du codage et conservation de l'information max ( ) 1H X = ( ) 0H X = 2 2 ( ) log ( ) (1 )log (1 ) H X p p p p = − − − − et  Dans ce cas, l'alphabet se réduit à X = {0 ; 1}, et l'entropie est donnée en fonction de p0 = p et p1 = 1−p, par : si p = {0;1}  La valeur de l'entropie H(X), n'excède pas la borne supérieure de l'entropie Hmax(X) obtenue dans le cas equiprobable, i.e. p = 0,5 :
  • 27. Mise en œuvre du TNS Page 27 sur 64 3.1. Compression non destructive
  • 28. Mise en œuvre du TNS Page 28 sur 64 Compression Compression numérique sans perte  Informatiquement, un signal numérique est une suite de bits représentant la succession des valeurs prises à certains instants. Chaque échantillon correspond à code ou codage.  Par exemple, un signal de N échantillons codés chacun sur 2 octets nécessite N×2×8 bits.  Le problème posé est le suivant : Pour un signal numérique donné, est-il possible d’en réduire le codage, sans perdre d’information ?  "Sans perdre d’information" signifie que le signal initial peut être reconstruit exactement à partir de cette représentation, soit une compression sans perte.  Prenons l’exemple du code Morse. Chaque caractère est codé par une succession de points et traits. Mais ce codage est à longueur variable, adaptée à la fréquence d’apparition des lettres : la lettre E (fréquente) est codée par : "·", alors que la lettre Z (rare) est codée par : "− − ··".
  • 29. Mise en œuvre du TNS Page 29 sur 64 Compression Compression numérique sans perte  Chaque échantillon correspond à code ou codage.  Ainsi, la lettre E (fréquente) nécessite 1 symbole tandis que la lettre Z (rare) nécessite 4 symboles. Par exemple, pour notre alphabet latin de 26 lettres, une première approche nous indique que 5 symboles binaires sont nécessaires: 2^5 = 32 (> 26). Par des méthodes de compression (RLE, Huffman, LZW…) on peut réduire le nombre moyen de symboles nécessaires.  Cas particulier et contre-exemple: "La disparition" de Georges Perec.  Le but est de transmettre en moyenne un moins grand nombre de symboles élémentaires (trait ou point) qu’avec un codage où toutes les lettres seraient représentées par le même nombre de symboles.  Dans ce chapitre nous formalisons ces notions, dans le cadre de la théorie statistique de l’information de Claude Shannon (1916-2001) développée essentiellement dans les années 1940-1950.
  • 30. Mise en œuvre du TNS Page 30 sur 64 Compression  Compression RLE : Ce type de compression, surtout efficace et utilisé pour les images avec peu de couleurs consiste à relever les répétitions de symboles et indiquer leur nombre.  Exemple: Soit la chaîne de caractères suivante: "AAAAAAAAAAAAAAABBBBBAAAAAAAACCCCCCCCCCCCCCCCDD". On a: A×15 B×5 A×8 C×16 D×2 La compression RLE donne donc: "A#15 $ B#5 $ A#8 $ C#16 $ D#2" Avec "#" le nombre d'occurrences successives, et "$" le séparateur de relevés. On est passé de 46 symboles à 21 symboles, soit α = 21/46 = 46%.  Taux de compression : On définit le taux de compression par le ratio entre le nombre de symboles après compression Nc et celui avant compression Ni : c i N N α = Compression RLE : Run Length Encoding
  • 31. Mise en œuvre du TNS Page 31 sur 64 Compression Compression numérique sans perte  Codes préfixes: Codages (i.e. les concaténations de mots binaires) pouvant être décodés sans ambiguïté. On appelle code préfixe tout code tel que chaque mot n’est le début d’aucun autre.  Exemple: Soit un alphabet à 4 symboles : X = {A; B; C; D}, classés par ordre décroissant de fréquence d'apparition ou probabilité d'occurrence. A 0 B 10 C 110 D 111 A B C D 0 1 1 1 0 0  Inégalité de Kraft: Si {w1, w2, …, wN} est un code préfixe binaire, alors il vérifie : 1 2 1k N l k − = ≤∑ xk wk
  • 32. Mise en œuvre du TNS Page 32 sur 64 Compression Compression Huffman Le code préfixe associé à l’arbre créé (appelé "code de Huffman") minimise la longueur moyenne parmi tous les codes préfixes : 1 N moy k k k L l p = = ∑  Remarques : Le code de Huffman vérifie donc : Il n’y a pas unicité du code minimal : il peut y avoir des choix de fusion dans l’algorithme de Huffman, et le choix d’affectation des branches "gauche" et "droite" n’est pas spécifié. ( ) ( ) 1moyH X L H x≤ < +  Code Huffman: On considère l’arbre binaire pondéré construit récursivement selon l’algorithme suivant :  Initialisation : les symboles, pondérés par leur probabilité, sont les feuilles.  Itération : tant que le graphe courant n’est pas connexe, fusionner les deux arbres dont les racines sont de poids les plus petits en créant une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux sous-arbres.
  • 33. Mise en œuvre du TNS Page 33 sur 64 Compression Compression Huffman  Code Huffman: On considère l’arbre binaire pondéré construit récursivement selon l’algorithme suivant :  Initialisation : les symboles, pondérés par leur probabilité, sont les feuilles.  Itération : tant que le graphe courant n’est pas connexe, fusionner les deux arbres dont les racines sont de poids les plus petits en créant une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux sous-arbres. E 0,25 01 xk pk wk  Exemple: Soit un alphabet à 8 symboles : X = {A; B; C; D; E; F; G; H}, classés par ordre décroissant de fréquence d'apparition ou probabilité d'occurrence. A 0,20 11 B 0,15 001 D 0,15 101 C 0,10 100 G 0,05 0001 H 0,05 00001 F 0,05 00000  Décoder: "1000010001010100000100" et "0000010001010100000100".
  • 34. Mise en œuvre du TNS Page 34 sur 64 xk pk Compression Compression Huffman  Code Huffman: Méthode d'élaboration :  Arbre : Fusionner les deux arbres dont les racines sont de poids les plus petits en créant une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux sous-arbres. E 0,25 A 0,20 B 0,15 D 0,15 C 0,10 G 0,05 H 0,05 F 0,05 0,10 0,15 0,25 0,300,45 0,55 1,00
  • 35. Mise en œuvre du TNS Page 35 sur 64 Compression Compression Huffman  Code Huffman: Méthode de lecture de l ’arbre :  Le décodage d’un mot consiste à parcourir l’arbre en choisissant les branches de gauche ou de droite selon la valeur 0 ou 1 lue ; lorsqu’on arrive à une feuille on écrit la lettre correspondante et on continue la lecture après être revenu à la racine. 0,10 0,15 0,25 0,300,45 0,55 1,00 E 0,25 00 xk pk wk A 0,20 01 B 0,15 100 D 0,15 101 C 0,10 110 G 0,05 1110 H 0,05 11110 F 0,05 11111
  • 36. Mise en œuvre du TNS Page 36 sur 64 Compression Compression Huffman  Code Huffman: Méthode d'élaboration :  Tableau : Fusionner les deux probabilités de poids les plus petits en créant une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux sous-arbres. E 0,25 01 00 xk pk wk wk A 0,20 11 01 B 0,15 001 100 D 0,15 101 101 C 0,10 100 110 G 0,05 0001 1110 H 0,05 00001 11110 F 0,05 00000 11111 Solution 1 Solution 2  Décoder: "1000010001010100000100" et "0000010001010100000100".  On vérifie facilement qu’il s’agit bien d’un code préfixe : aucun code n’est le préfixe d’un autre.  On obtient un code Huffman différent de celui proposé initialement : il n ’y a pas unicité de la solution...
  • 37. Mise en œuvre du TNS Page 37 sur 64 Compression Compression Huffman  Code Huffman: Méthode d'élaboration :  Tableau : Fusionner les deux probabilités de poids les plus petits en créant une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux sous-arbres. xk pk It.1 It.2 It.3 It.4 It.5 It.6 E 0,25 0,25 0,25 0,25 0,30 0,45 0,55 A 0,20 0,20 0,20 0,25 0,25 0,30 0,45 B 0,15 0,15 0,15 0,20 0,25 0,25 D 0,15 0,15 0,15 0,15 0,20 C 0,10 0,10 0,15 0,15 G 0,05 0,10 0,10 H 0,05 0,05 F 0,05
  • 38. Mise en œuvre du TNS Page 38 sur 64 Compression Compression Huffman  Code Huffman: Méthode d'élaboration :  Tableau : Fusionner les deux probabilités de poids les plus petits en créant une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux sous-arbres. xk pk It.1 It.2 It.3 It.4 It.5 It.6 E 0,25 0,25 0,25 0,25 0,30 0,45 0,55 A 0,20 0,20 0,20 0,25 0,25 0,30 0,45 B 0,15 0,15 0,15 0,20 0,25 0,25 D 0,15 0,15 0,15 0,15 0,20 C 0,10 0,10 0,15 0,15 G 0,05 0,10 0,10 H 0,05 0,05 F 0,05 0 100 01 00 01
  • 39. Mise en œuvre du TNS Page 39 sur 64 Compression Compression Huffman  Code Huffman: Méthode d'élaboration :  Tableau : Fusionner les deux probabilités de poids les plus petits en créant une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux sous-arbres. xk pk It.1 It.2 It.3 It.4 It.5 It.6 E 0,25 0,25 0,25 0,25 0,30 0,45 0,55 A 0,20 0,20 0,20 0,25 0,25 0,30 0,45 B 0,15 0,15 0,15 0,20 0,25 0,25 D 0,15 0,15 0,15 0,15 0,20 C 0,10 0,10 0,15 0,15 G 0,05 0,10 0,10 H 0,05 0,05 F 0,05 0 1 1 00 01 00 01 10 11
  • 40. Mise en œuvre du TNS Page 40 sur 64 Compression Compression Huffman  Code Huffman: Méthode d'élaboration :  Tableau : Fusionner les deux probabilités de poids les plus petits en créant une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux sous-arbres. xk pk It.1 It.2 It.3 It.4 E 0,25 0,25 0,25 0,25 0,30 A 0,20 0,20 0,20 0,25 0,25 B 0,15 0,15 0,15 0,20 0,25 D 0,15 0,15 0,15 0,15 0,20 C 0,10 0,10 0,15 0,15 G 0,05 0,10 0,10 H 0,05 0,05 F 0,05 00 01 10 11000 001
  • 41. Mise en œuvre du TNS Page 41 sur 64 Compression Compression Huffman  Code Huffman: Méthode d'élaboration :  Tableau : Fusionner les deux probabilités de poids les plus petits en créant une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux sous-arbres. xk pk It.1 It.2 It.3 E 0,25 0,25 0,25 0,25 A 0,20 0,20 0,20 0,25 B 0,15 0,15 0,15 0,20 D 0,15 0,15 0,15 0,15 C 0,10 0,10 0,15 0,15 G 0,05 0,10 0,10 H 0,05 0,05 F 0,05 01 10 11 000 001
  • 42. Mise en œuvre du TNS Page 42 sur 64 Compression Compression Huffman  Code Huffman: Méthode d'élaboration :  Tableau : Fusionner les deux probabilités de poids les plus petits en créant une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux sous-arbres. xk pk It.1 It.2 It.3 E 0,25 0,25 0,25 0,25 A 0,20 0,20 0,20 0,25 B 0,15 0,15 0,15 0,20 D 0,15 0,15 0,15 0,15 C 0,10 0,10 0,15 0,15 G 0,05 0,10 0,10 H 0,05 0,05 F 0,05 01 10 11 000 001100 101
  • 43. Mise en œuvre du TNS Page 43 sur 64 Compression Compression Huffman  Code Huffman: Méthode d'élaboration :  Tableau : Fusionner les deux probabilités de poids les plus petits en créant une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux sous-arbres. xk pk It.1 It.2 It.3 E 0,25 0,25 0,25 0,25 A 0,20 0,20 0,20 0,25 B 0,15 0,15 0,15 0,20 D 0,15 0,15 0,15 0,15 C 0,10 0,10 0,15 0,15 G 0,05 0,10 0,10 H 0,05 0,05 F 0,05 01 10 11 000 001 01 11 000 001 100 101
  • 44. Mise en œuvre du TNS Page 44 sur 64 Compression Compression Huffman  Code Huffman: Méthode d'élaboration :  Tableau : Fusionner les deux probabilités de poids les plus petits en créant une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux sous-arbres. xk pk It.1 It.2 E 0,25 0,25 0,25 A 0,20 0,20 0,20 B 0,15 0,15 0,15 D 0,15 0,15 0,15 C 0,10 0,10 0,15 G 0,05 0,10 0,10 H 0,05 0,05 F 0,05 01 11 000 001 100 1011000 1001
  • 45. Mise en œuvre du TNS Page 45 sur 64 Compression Compression Huffman  Code Huffman: Méthode d'élaboration :  Tableau : Fusionner les deux probabilités de poids les plus petits en créant une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux sous-arbres. xk pk It.1 It.2 E 0,25 0,25 0,25 A 0,20 0,20 0,20 B 0,15 0,15 0,15 D 0,15 0,15 0,15 C 0,10 0,10 0,15 G 0,05 0,10 0,10 H 0,05 0,05 F 0,05 01 11 000 001 100 101 01 11 000 001 101 1000 1001
  • 46. Mise en œuvre du TNS Page 46 sur 64 Compression Compression Huffman  Code Huffman: Méthode d'élaboration :  Tableau : Fusionner les deux probabilités de poids les plus petits en créant une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux sous-arbres. xk pk It.1 E 0,25 0,25 A 0,20 0,20 B 0,15 0,15 D 0,15 0,15 C 0,10 0,10 G 0,05 0,10 H 0,05 0,05 F 0,05 01 11 000 001 101 1000 1001 01 11 000 001 101 1001 10000 10001
  • 47. Mise en œuvre du TNS Page 47 sur 64 Compression Compression Huffman  Code Huffman: Méthode d'élaboration :  Tableau : Fusionner les deux probabilités de poids les plus petits en créant une nouvelle racine de poids égal à la somme de ces poids, liée à ces deux sous-arbres. E 0,25 01 01 xk pk wk wk A 0,20 11 11 B 0,15 001 000 D 0,15 101 001 C 0,10 100 101 G 0,05 0001 1001 H 0,05 00001 10000 F 0,05 00000 10001 Solution 1 Solution 3  Décoder: "1000010001010100000100" et "0000010001010100000100".  On vérifie facilement qu’il s’agit bien d’un code préfixe : aucun code n’est le préfixe d’un autre.  On obtient un code Huffman différent de celui proposé initialement : il n ’y a pas unicité de la solution...
  • 48. Mise en œuvre du TNS Page 48 sur 64 Compression Compression  Autres codes de compression:  Codage arithmétique (1976) : Comme le codage de Huffman, le codage arithmétique appartient à la famille des codages entropiques, dans le sens où il se base sur les fréquences d’apparition des lettres pour coder avec peu de bits une lettre très fréquente. Dans le codage arithmétique, un message est codé par un décimal entre 0 et 1.  Codage LZW (Lempel, Ziv, Welch,1984) : Dans les codages entropiques du type de celui de Huffman, un dictionnaire est créé pour associer à chaque lettre de l’alphabet un mot binaire (de longueur variable), à l’aide des statistiques de fréquence des lettres dans le message à compresser. Dans le codage de LZW, le dictionnaire associe à des chaîne de lettres de longueur variable figurant dans le message à compresser des mots binaires de longueur fixée. Ceci permet d’exploiter les corrélations entre les sorties de la source X.
  • 49. Mise en œuvre du TNS Page 49 sur 64 Compression Compression  Autres codes de compression:  Comparaison: The LZ methods are denoted by "o", the PPM methods by "*", and the BWT methods by "•". http://sun.aei.polsl.pl/~sdeor/pub/deo03.pdf, p.107-115
  • 50. Mise en œuvre du TNS Page 50 sur 64 Compression Compression  Formats informatiques:  Données : ZIP, RAR, 7z...  Images : BMP RLE (8 bits), GIF (8 bits), PNG (24 bits)...  Exemple : Image 800x600 avec 4 quartiers : rouge, vert, bleu, gris. Compression ZIP: 5 344 octets Compression RAR: 4 755 octets Compression 7zip: 2 522 octets Original BMP (24 bits): 1 440 054 octets Compression BMP (RLE): 7 078 octets Compression GIF (8 bits): 4 656 octets Compression PNG (24 bits): 2 805 octets  Exercice : Retrouver la taille du fichier BMP (24 bits) par le calcul.
  • 51. Mise en œuvre du TNS Page 51 sur 64 Compression Compression  Formats informatiques:  Données : ZIP, RAR, 7z...  Images : BMP RLE (8 bits), GIF (8 bits), PNG (24 bits)...  Exemple 2 : Image 800x600 avec de nombreuses détails. Compression ZIP: 882 523 octets Compression RAR: 779 488 octets Compression 7zip: 715 501 octets Original BMP (24 bits): 1 440 054 octets Compression BMP (RLE): 365 908 octets Compression GIF (8 bits): 222 321 octets Compression PNG (24 bits): 697 615 octets
  • 52. Mise en œuvre du TNS Page 52 sur 64 3.2. Compression destructive
  • 53. Mise en œuvre du TNS Page 53 sur 64 Compression destructive Compression numérique avec perte  Dans de nombreux domaines (image, son), la restitution des données sans pertes n’est pas un impératif absolu. Pour étayer ce constat, on peut partir de considérations mathématiques, mais aussi physiques et physiologiques.  Considération mathématique: Décroissance des coefficients de Fourier Ce constat donne l’idée de "compresser" les signaux en ne transmettant que les coefficients de Fourier suffisamment grands (puisqu’un certain nombre, correspondant à |n| grand, seront assez petits), par exemple en tronquant la série de Fourier. Néanmoins, ceci est la cause des phénomènes de pré-écho dans les fichiers MP3, ou du phénomène de ringing (surlignage des bords contrastés) dans les fichiers JPEG.  Considération physique: Au-delà d’un certain échantillonnage et d’une certaine quantification, le signal parait continu à nos sens.  Considération physiologique: Nos sens sont "aveuglés" par des composantes dominantes, on parle de masquage.
  • 54. Mise en œuvre du TNS Page 54 sur 64 TCD Zig-ZagBloc 8x8 1,2,…. DC AC AC Run Length Coding Compression destructive Compression numérique avec perte  Le format JPG : La compression JPEG (Joint Photographies Experts Group)  Schéma de principe :
  • 55. Mise en œuvre du TNS Page 55 sur 64 Compression numérique avec perte Image originale Image reconstruite Image erreurCoefficients TCD 64 coefficients Compression destructive 32 coefficients  Le format JPG : La compression JPEG (Joint Photographies Experts Group)
  • 56. Mise en œuvre du TNS Page 56 sur 64 Compression numérique avec perte Compression destructive Image originale Image reconstruite Image erreurCoefficients TCD 8 coefficients 1 coefficient  Le format JPG : La compression JPEG (Joint Photographies Experts Group)
  • 57. Mise en œuvre du TNS Page 57 sur 64 Compression numérique avec perte Compression destructive  Le format JPG : La compression JPEG (Joint Photographies Experts Group) Référence 11 240 octets FQ = 4 2 582 octets α = 23% FQ = 10 1 582 octets α = 14% FQ = 100 528 octets α = 5%
  • 58. Mise en œuvre du TNS Page 58 sur 64 Compression Compression numérique avec perte  Le format JPG : Compression Données : FQ=1: 409 302 octets FQ=2: 348 320 octets FQ=5: 259 456 octets FQ=10: 189 363 octets FQ=20: 135 222 octets FQ=50: 84 788 octets FQ=99: 17 835 octets
  • 59. Mise en œuvre du TNS Page 59 sur 64 Compression Compression numérique avec perte  Le format JPG : Compression Principe : Avec le schéma de codage très simplifié suivant, on remarque que le codage nous délivre deux tables (quatre pour une image couleur). Ces tables étant enregistrées dans le fichier final peuvent être choisies par le compresseur. Schéma de codage simplifié.
  • 60. Mise en œuvre du TNS Page 60 sur 64 Courbe de sensibilité de l ’oreille humaineA (dB) Fréquence 120 0 60 log(f) Seuil de perception Zone audible son S1son S2 Au dessous du seuil, les sons ne sont plus audibles Compression numérique avec perte Compression destructive  Le format MP1 audio : fondé sur le standard MUSICAM (Masking Pattern Adapted Universal Subband Integrated Coding)  Débit WAV (CD) :Débit 1411 kb/s (2x44100/sx16bits).  Débit MPEG 1 : Débit 192 kb/s (2x96kbits/s)
  • 61. Mise en œuvre du TNS Page 61 sur 64 A (dB) Fréquence 120 0 60 log(f) Seuil de perception Zone audible S1 S2 A (dB) Fréquence 120 0 60 log(f) Zone audible  Le son S2 ne doit pas être pris en compte : il est masqué par un son S1 plus important.  Le seuil de perception varie en fonction du contenu spectral. Compression numérique avec perte Compression destructive  Le format MP1 audio : fondé sur le standard MUSICAM S1 S3S2 Seuil de perception S4
  • 62. Mise en œuvre du TNS Page 62 sur 64 Sous-bande 750 Hz f fe/2 =24 kHz A (dB) Fréquences 120 0 60 log(f) Compression numérique avec perte Compression destructive  Le format MP1 audio : fondé sur le standard MUSICAM  Les spectre audio est découpé en 32 sous-bandes de fréquence :  La courbe de masquage est déterminée en temps réel : modèle psycho-acoustique.  La quantification varie en fonction de la sensibilité de l’oreille : modèle psycho-acoustique. Modèle psycho-acoustique
  • 63. Mise en œuvre du TNS Page 63 sur 64 Images animées Numérisation Quantification DCT Seuillage RLC Huffman (VLC) MPEG Compression temporelle Compression spatiale Non réversible Production d ’une séquence MPEG Compression destructive
  • 64. Mise en œuvre du TNS Page 64 sur 64  Image spatiale → Image fréquentielle (TCD)  Image fréquentielle → Spectre 2D  Quantification → Privilégie les harmoniques principaux  Codage du Run Length Code (RLC) + Codage d ’Huffman  Méthode Zig-Zag Production d ’une séquence MPEG Compression destructive  Méthode irréversible : Taux de compression élevé => Perte d’information élevée  Compression temporelle → Trame de référence.

Notes de l'éditeur

  1. La point unificateur des disciplines précédentes est la notion d ’information. Son traitement ne peut être réalisé que par une succession d ’opérations obéissant à un schéma fonctionnel général. La source d ’information, délivrant une information audio ou visuelle doit être modifiée sous un format électrique puis être adaptée en vue de son traitement qui peut être un stockage, une égalisation ou bien une transmission sur un réseau. Cette information électrique doit de nouveau être modifiée et adaptée en vue d ’une utilisation. Lorsque l’on étudiera un vecteur de l ’information, comme par exemple l ’image, notre travail consistera indéniablement à étudier : - les différentes sources d ’information; - les différents organes de codage et d ’adaptation; - les différents organes de stockages, de corrections et de diffusion.
  2. La point unificateur des disciplines précédentes est la notion d ’information. Son traitement ne peut être réalisé que par une succession d ’opérations obéissant à un schéma fonctionnel général. La source d ’information, délivrant une information audio ou visuelle doit être modifiée sous un format électrique puis être adaptée en vue de son traitement qui peut être un stockage, une égalisation ou bien une transmission sur un réseau. Cette information électrique doit de nouveau être modifiée et adaptée en vue d ’une utilisation. Lorsque l’on étudiera un vecteur de l ’information, comme par exemple l ’image, notre travail consistera indéniablement à étudier : - les différentes sources d ’information; - les différents organes de codage et d ’adaptation; - les différents organes de stockages, de corrections et de diffusion.
  3. (Joint Photographies Experts Group) est une format de compression irréversible. Le principe consiste à représenter une image spatiale par une image fréquentielle (méthode harmonique), néanmoins l ’opération n ’est pas effectuée sur l ’ensemble de l ’image mais sur des blocs 8x8. Une opération de transformée en cosinus discret sur ces blocs 8x8 permet la séparation des informations hautes et des basses fréquences dans l&apos;image. Une opération de quantifization permet ensuite de privilégier les harmoniques principaux par rapport aux harmoniques de faibles niveaux. Puis l&apos;information ainsi calculée est codée par un procédé classique tel que celui fondé sur la méthode de RCL. Enfin elle est classée suivant la technique zig-zag. Indiquons que plus le taux de compression est élevé, plus la quantité d&apos;informations perdue est élevée.
  4. MPEG 1 Audio : La norme MPEG1 Audio est fondée sur le standard MUSICAM (Masking Pattern Adapted Universal Subband Integrated Coding) dont l ’algorithme permet de travailler sur quatre taux de compression différents. Le taux de compression utilisé par la norme MPEG1 est 8 c ’est-à-dire 2x96kbits/s. La qualité sonore est certes moindre que celle d ’un CD Audio, mais elle est comparable à celle offerte par la Hi-Fi. Sons numérisés : Les signaux audibles (la parole et la musique), ayant un spectre qui s&apos;étend de 15 Hz à 20 KHz, nécessitent, si nous voulons les numériser, une fréquence d&apos;échantillonnagede 44.1 KHz. Actuellement les cartes numériques audio stéréo les plus répandues possèdent 16 bits, ce qui implique un taux de transfert (débit) d&apos;environ 200 Ko/s (44100x2x16=172 Ko). Le principe de compression audio consiste à ne prendre en compte que les informations pertinentes pour l ’oreille humaine. Des recherches ont permis dévaluer le comportement de cette dernière, allant même jusqu ’à la modéliser artificiellement à partir de différentes caractéristiques. La première est le seuil de sensibilité au-dessous duquel une fréquence pure n ’est plus audible. Ainsi, une première étape du traitement consiste à épurer le son en éliminant tous les signaux dont l ’amplitude se situe au-dessous de la courbe de sensibilité humaine.
  5. Une autre caractéristique de l ’oreille est q ’un son faible, parfaitement audible s ’il est émis seul, est masqué s ’il se trouve accompagné simultanément d ’un son fort de fréquence voisine. La courbe de masquage est alors modifiée pour que le son d ’amplitude plus faible soit éliminé.
  6. Pour réaliser au codage des informations, l ’espace spectral est découpé en 32 sections appelées sous-bandes à l ’aide de filtres. La courbe de masquage est déterminée en temps réel à l ’intérieur de chaque sous-bande à partir du modèle psycho-acoustique. Les informations utiles sont quantifiées avec un nombre de bits variable en fonction de leur pertinence. Ainsi, les signaux situés dans des zones où l ’oreille est très sensible sont affectés d ’un nombre de bits plus important que pour des signaux peu perceptibles.