Mise en œuvre du TNS Page 1 sur 64Novembre 2012.Traitement Numérique du SignalCM1 : Signal et informationUniversité du Hav...
Mise en œuvre du TNS Page 2 sur 64PPN 2008: MC-II3Traitement du signalApplications en GEIIMise en œuvreTestDSPCAN/CNATF, c...
Mise en œuvre du TNS Page 3 sur 64Signal et Information Information Signal Compression sans perte Compression destruct...
Mise en œuvre du TNS Page 4 sur 641. Information
Mise en œuvre du TNS Page 5 sur 64Information Sens du mot information:Information : Contenu, intérêt Linformation est un...
Mise en œuvre du TNS Page 6 sur 64Information Sens du mot information:Information : Contenu, intérêt Selon la théorie de...
Mise en œuvre du TNS Page 7 sur 64StockageTraitementTransmissionInformation Vecteurs d’information: schéma fonctionnel S...
Mise en œuvre du TNS Page 8 sur 64InformationInformation : Contenu, intérêtSourcedinformation Message Signal émisÉmetteur ...
Mise en œuvre du TNS Page 9 sur 642. Signal
Mise en œuvre du TNS Page 10 sur 64SignalSignal : Message Un signal est un message simplifié et généralement codé.Il exis...
Mise en œuvre du TNS Page 11 sur 64SignalSignal : Message Un signal est un message simplifié et généralement codé.Il exis...
Mise en œuvre du TNS Page 12 sur 64SignalSignal : Message Un signal est un message simplifié et généralement codé.Il exis...
Mise en œuvre du TNS Page 13 sur 64SignalSignal : Message Un signal est un message simplifié et généralement codé.Il exis...
Mise en œuvre du TNS Page 14 sur 64SignalSignal : Extension Une image est un signal (x, y). En informatique, limage brut...
Mise en œuvre du TNS Page 15 sur 64SignalSignal : Extension Une image est un signal (x, y). En informatique, limage brut...
Mise en œuvre du TNS Page 16 sur 64SignalSignal : Extension Une image est un signal (x, y). En informatique, limage brut...
Mise en œuvre du TNS Page 17 sur 64SignalSignal : Extension Une image est un signal (x, y). En informatique, limage brut...
Mise en œuvre du TNS Page 18 sur 64SignalSignal : Extension Un signal est un message simplifié et généralement codé.Ce si...
Mise en œuvre du TNS Page 19 sur 64SignalSignal : Extension Un signal est un message simplifié et généralement codé. Ce s...
Mise en œuvre du TNS Page 20 sur 64SignalSignal : Extension Un signal est un message simplifié et généralement codé. Ce s...
Mise en œuvre du TNS Page 21 sur 643. Compression
Mise en œuvre du TNS Page 22 sur 64Compression Quantification du codage: Quantification de linformation : Codage adapté...
Mise en œuvre du TNS Page 23 sur 64Compression Quantité dinformation: On vérifie bien I(x) = 0 pour p(x) = 1 et I(x) → +...
Mise en œuvre du TNS Page 24 sur 64Compression Généralisation:avecCompression : Réduction du codage et conservation de li...
Mise en œuvre du TNS Page 25 sur 64Compression Borne supérieure:Compression : Réduction du codage et conservation de linf...
Mise en œuvre du TNS Page 26 sur 64Compression Source binaire:Compression : Réduction du codage et conservation de linfor...
Mise en œuvre du TNS Page 27 sur 643.1. Compression non destructive
Mise en œuvre du TNS Page 28 sur 64CompressionCompression numérique sans perte Informatiquement, un signal numérique est ...
Mise en œuvre du TNS Page 29 sur 64CompressionCompression numérique sans perte Chaque échantillon correspond à code ou co...
Mise en œuvre du TNS Page 30 sur 64Compression Compression RLE : Ce type de compression, surtout efficace et utilisé pour...
Mise en œuvre du TNS Page 31 sur 64CompressionCompression numérique sans perte Codes préfixes: Codages (i.e. les concatén...
Mise en œuvre du TNS Page 32 sur 64CompressionCompression HuffmanLe code préfixe associé à l’arbre créé (appelé "code de H...
Mise en œuvre du TNS Page 33 sur 64CompressionCompression Huffman Code Huffman: On considère l’arbre binaire pondéré cons...
Mise en œuvre du TNS Page 34 sur 64xkpkCompressionCompression Huffman Code Huffman: Méthode délaboration : Arbre : Fusio...
Mise en œuvre du TNS Page 35 sur 64CompressionCompression Huffman Code Huffman: Méthode de lecture de l ’arbre : Le déco...
Mise en œuvre du TNS Page 36 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionn...
Mise en œuvre du TNS Page 37 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionn...
Mise en œuvre du TNS Page 38 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionn...
Mise en œuvre du TNS Page 39 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionn...
Mise en œuvre du TNS Page 40 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionn...
Mise en œuvre du TNS Page 41 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionn...
Mise en œuvre du TNS Page 42 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionn...
Mise en œuvre du TNS Page 43 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionn...
Mise en œuvre du TNS Page 44 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionn...
Mise en œuvre du TNS Page 45 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionn...
Mise en œuvre du TNS Page 46 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionn...
Mise en œuvre du TNS Page 47 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionn...
Mise en œuvre du TNS Page 48 sur 64CompressionCompression Autres codes de compression: Codage arithmétique (1976) :Comme...
Mise en œuvre du TNS Page 49 sur 64CompressionCompression Autres codes de compression: Comparaison:The LZ methods are de...
Mise en œuvre du TNS Page 50 sur 64CompressionCompression Formats informatiques: Données : ZIP, RAR, 7z... Images : BMP...
Mise en œuvre du TNS Page 51 sur 64CompressionCompression Formats informatiques: Données : ZIP, RAR, 7z... Images : BMP...
Mise en œuvre du TNS Page 52 sur 643.2. Compression destructive
Mise en œuvre du TNS Page 53 sur 64Compression destructiveCompression numérique avec perte Dans de nombreux domaines (ima...
Mise en œuvre du TNS Page 54 sur 64TCDZig-ZagBloc 8x81,2,….DC ACACRun Length CodingCompression destructiveCompression numé...
Mise en œuvre du TNS Page 55 sur 64Compression numérique avec perteImage originale Image reconstruite Image erreurCoeffici...
Mise en œuvre du TNS Page 56 sur 64Compression numérique avec perteCompression destructiveImage originale Image reconstrui...
Mise en œuvre du TNS Page 57 sur 64Compression numérique avec perteCompression destructive Le format JPG : La compression...
Mise en œuvre du TNS Page 58 sur 64CompressionCompression numérique avec perte Le format JPG : CompressionDonnées :FQ=1:...
Mise en œuvre du TNS Page 59 sur 64CompressionCompression numérique avec perte Le format JPG : CompressionPrincipe :Avec...
Mise en œuvre du TNS Page 60 sur 64Courbe de sensibilité de l ’oreille humaineA (dB)Fréquence120060log(f)Seuil deperceptio...
Mise en œuvre du TNS Page 61 sur 64A (dB)Fréquence120060log(f)Seuil deperceptionZone audibleS1 S2A (dB)Fréquence120060log(...
Mise en œuvre du TNS Page 62 sur 64Sous-bande 750 Hzffe/2 =24 kHzA (dB)Fréquences120060log(f)Compression numérique avec pe...
Mise en œuvre du TNS Page 63 sur 64Images animéesNumérisationQuantificationDCTSeuillageRLCHuffman (VLC)MPEGCompressiontemp...
Mise en œuvre du TNS Page 64 sur 64 Image spatiale → Image fréquentielle (TCD) Image fréquentielle → Spectre 2D Quantif...
Prochain SlideShare
Chargement dans…5
×

CM1 - Signal et Information

1 018 vues

Publié le

0 commentaire
0 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Aucun téléchargement
Vues
Nombre de vues
1 018
Sur SlideShare
0
Issues des intégrations
0
Intégrations
9
Actions
Partages
0
Téléchargements
98
Commentaires
0
J’aime
0
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive
  • La point unificateur des disciplines précédentes est la notion d ’information. Son traitement ne peut être réalisé que par une succession d ’opérations obéissant à un schéma fonctionnel général. La source d ’information, délivrant une information audio ou visuelle doit être modifiée sous un format électrique puis être adaptée en vue de son traitement qui peut être un stockage, une égalisation ou bien une transmission sur un réseau. Cette information électrique doit de nouveau être modifiée et adaptée en vue d ’une utilisation. Lorsque l’on étudiera un vecteur de l ’information, comme par exemple l ’image, notre travail consistera indéniablement à étudier : - les différentes sources d ’information; - les différents organes de codage et d ’adaptation; - les différents organes de stockages, de corrections et de diffusion.
  • La point unificateur des disciplines précédentes est la notion d ’information. Son traitement ne peut être réalisé que par une succession d ’opérations obéissant à un schéma fonctionnel général. La source d ’information, délivrant une information audio ou visuelle doit être modifiée sous un format électrique puis être adaptée en vue de son traitement qui peut être un stockage, une égalisation ou bien une transmission sur un réseau. Cette information électrique doit de nouveau être modifiée et adaptée en vue d ’une utilisation. Lorsque l’on étudiera un vecteur de l ’information, comme par exemple l ’image, notre travail consistera indéniablement à étudier : - les différentes sources d ’information; - les différents organes de codage et d ’adaptation; - les différents organes de stockages, de corrections et de diffusion.
  • (Joint Photographies Experts Group) est une format de compression irréversible. Le principe consiste à représenter une image spatiale par une image fréquentielle (méthode harmonique), néanmoins l ’opération n ’est pas effectuée sur l ’ensemble de l ’image mais sur des blocs 8x8. Une opération de transformée en cosinus discret sur ces blocs 8x8 permet la séparation des informations hautes et des basses fréquences dans l'image. Une opération de quantifization permet ensuite de privilégier les harmoniques principaux par rapport aux harmoniques de faibles niveaux. Puis l'information ainsi calculée est codée par un procédé classique tel que celui fondé sur la méthode de RCL. Enfin elle est classée suivant la technique zig-zag. Indiquons que plus le taux de compression est élevé, plus la quantité d'informations perdue est élevée.
  • MPEG 1 Audio : La norme MPEG1 Audio est fondée sur le standard MUSICAM (Masking Pattern Adapted Universal Subband Integrated Coding) dont l ’algorithme permet de travailler sur quatre taux de compression différents. Le taux de compression utilisé par la norme MPEG1 est 8 c ’est-à-dire 2x96kbits/s. La qualité sonore est certes moindre que celle d ’un CD Audio, mais elle est comparable à celle offerte par la Hi-Fi. Sons numérisés : Les signaux audibles (la parole et la musique), ayant un spectre qui s'étend de 15 Hz à 20 KHz, nécessitent, si nous voulons les numériser, une fréquence d'échantillonnagede 44.1 KHz. Actuellement les cartes numériques audio stéréo les plus répandues possèdent 16 bits, ce qui implique un taux de transfert (débit) d'environ 200 Ko/s (44100x2x16=172 Ko). Le principe de compression audio consiste à ne prendre en compte que les informations pertinentes pour l ’oreille humaine. Des recherches ont permis dévaluer le comportement de cette dernière, allant même jusqu ’à la modéliser artificiellement à partir de différentes caractéristiques. La première est le seuil de sensibilité au-dessous duquel une fréquence pure n ’est plus audible. Ainsi, une première étape du traitement consiste à épurer le son en éliminant tous les signaux dont l ’amplitude se situe au-dessous de la courbe de sensibilité humaine.
  • Une autre caractéristique de l ’oreille est q ’un son faible, parfaitement audible s ’il est émis seul, est masqué s ’il se trouve accompagné simultanément d ’un son fort de fréquence voisine. La courbe de masquage est alors modifiée pour que le son d ’amplitude plus faible soit éliminé.
  • Pour réaliser au codage des informations, l ’espace spectral est découpé en 32 sections appelées sous-bandes à l ’aide de filtres. La courbe de masquage est déterminée en temps réel à l ’intérieur de chaque sous-bande à partir du modèle psycho-acoustique. Les informations utiles sont quantifiées avec un nombre de bits variable en fonction de leur pertinence. Ainsi, les signaux situés dans des zones où l ’oreille est très sensible sont affectés d ’un nombre de bits plus important que pour des signaux peu perceptibles.
  • CM1 - Signal et Information

    1. 1. Mise en œuvre du TNS Page 1 sur 64Novembre 2012.Traitement Numérique du SignalCM1 : Signal et informationUniversité du Havre, IUT du HavreDépartement GEII
    2. 2. Mise en œuvre du TNS Page 2 sur 64PPN 2008: MC-II3Traitement du signalApplications en GEIIMise en œuvreTestDSPCAN/CNATF, compression,codage
    3. 3. Mise en œuvre du TNS Page 3 sur 64Signal et Information Information Signal Compression sans perte Compression destructive ConclusionPlan
    4. 4. Mise en œuvre du TNS Page 4 sur 641. Information
    5. 5. Mise en œuvre du TNS Page 5 sur 64Information Sens du mot information:Information : Contenu, intérêt Linformation est un concept ayant plusieurs sens. Il est étroitement lié auxnotions de contrainte, communication, contrôle, donnée, formulaire, instruction, connaissance, signification, perception et représentation. Linformation désigne à la fois le message à communiquer et les symbolesutilisés pour lécrire ; elle utilise un code de signes porteurs de sens tels quunalphabet de lettres, une base de chiffres, des idéogrammes ou pictogrammes. Au sens étymologique, linformation est ce qui donne une forme à lesprit. Elle vient du verbe latin informare, qui signifie "donner forme à"ou "se former une idée de". Hors contexte, elle représente le véhicule des données comme dans lathéorie de linformation et, hors support, elle représente un facteurdorganisation.http://fr.wikipedia.org/wiki/Information
    6. 6. Mise en œuvre du TNS Page 6 sur 64Information Sens du mot information:Information : Contenu, intérêt Selon la théorie de linformation, des données contiennent de linformationquand celles-ci ne sont que peu compressibles et quelles sont complexes. Eneffet, linformation contenue dans un message composé dune seule lettre serépétant un grand nombre de fois tel que « AAAAAAAAA... » est quasimentnulle. La conception la plus répandue de linformation est liée au couple "message+ récepteur", le dernier possédant des implicites valorisant le message (defait, tout message est incompréhensible sans ces implicites). Ainsi, la phrase "Médor est un chien" contient plus dinformation que "Médorest un quadrupède", bien que la seconde contienne plus de lettres. Ladifférence est à mettre au compte de la connaissance dun dictionnaireimplicite et faisant partie du contexte. Les notions de quantité dinformation et dentropie font lobjet dunediscipline spécialisée, la théorie de linformation, initiée par Shannon.http://fr.wikipedia.org/wiki/Information
    7. 7. Mise en œuvre du TNS Page 7 sur 64StockageTraitementTransmissionInformation Vecteurs d’information: schéma fonctionnel Sources d ’information; Moyens de codage et d’adaptation; Moyens de stockage, de traitement et de transmission.Information : Contenu, intérêtAdaptationCodageAdaptationCodagePrésentationUtilisateurSourced’informationEmetteur
    8. 8. Mise en œuvre du TNS Page 8 sur 64InformationInformation : Contenu, intérêtSourcedinformation Message Signal émisÉmetteur Récepteur DestinationMessageSourcede bruitSignal reçuBruit++ Vecteurs d’information: schéma fonctionnel Sources d ’information; Moyens de codage et d’adaptation; Moyens de stockage, de traitement et de transmission. Source de bruit: Perturbation.
    9. 9. Mise en œuvre du TNS Page 9 sur 642. Signal
    10. 10. Mise en œuvre du TNS Page 10 sur 64SignalSignal : Message Un signal est un message simplifié et généralement codé.Il existe sous forme dobjets ayant des formes particulières : Il existe sous forme dobjet ayant une forme particulière.FRANCE FRANCE FRGERMANY ALLEMAGNE DEGREECE GRÈCE GRITALY ITALIE ITSPAIN ESPAGNE ESUNITED KINGDOM ROYAUME-UNI GBCodets alpha-2 correspondants de lISO 3166-1STOP
    11. 11. Mise en œuvre du TNS Page 11 sur 64SignalSignal : Message Un signal est un message simplifié et généralement codé.Il existe sous forme dobjets ayant des formes particulières : Le signal électrique est une des formesles plus récentes de signal.Lalphabet morse ou code morse, est uncode permettant de transmettre un texteà laide de séries dimpulsions courtes etlongues, quelles soit produites par dessignes, une lumière ou un geste.Inventé par Samuel Morse en 1835 pourla télégraphie, ce codage de caractèresassigne à chaque lettre, chiffre et signede ponctuation une combinaison uniquede signaux intermittents. Le code morseest considéré comme le précurseur descommunications numériques.
    12. 12. Mise en œuvre du TNS Page 12 sur 64SignalSignal : Message Un signal est un message simplifié et généralement codé.Il existe sous forme dobjets ayant des formes particulières : En électronique, on utilise le signal analogique ou numérique.
    13. 13. Mise en œuvre du TNS Page 13 sur 64SignalSignal : Message Un signal est un message simplifié et généralement codé.Il existe sous forme dobjets ayant des formes particulières : En informatique, le signal permet la communication :Échange de données inter-processus.Synchronisation des processus. Systèmes de transmission dinformation entre périphériques :Filaire: IEEE 1394, SCSI, USB, ATA, SATA, eSATA…Réseau: Ethernet, InfiniBand, TokenTing, CPL…Sans fils: Bluetooth, WiFi, irDA, WirelessUSB Les signaux lumineux permettent la communication à grande distance.
    14. 14. Mise en œuvre du TNS Page 14 sur 64SignalSignal : Extension Une image est un signal (x, y). En informatique, limage brute (raw) est codée au format BMP : Exemple : Image 4x2 = 8 pixels codés sur 24 bits(/pixel)1 2 3 45 6 7 8 Taille du fichier (octets) : No = 24 bits = 3 octetsTaille = En-tête + NX×NY×NoSoit Taille = 54 + 4x2x3 = 78 octetsNY = 2 pixelsNX = 4 pixels
    15. 15. Mise en œuvre du TNS Page 15 sur 64SignalSignal : Extension Une image est un signal (x, y). En informatique, limage brute (raw) est codée au format BMP : Exemple :Pixel 1: Code RVB (little-endian)i.e. B = "FF", V = "00", R = "00"
    16. 16. Mise en œuvre du TNS Page 16 sur 64SignalSignal : Extension Une image est un signal (x, y). En informatique, limage brute (raw) est codée au format BMP : Exemple :Octets Signification42 4D Caractères B($42) et M($4D) indiquant un fichier de type BMP4E 00 00 00 Taille du fichier $0000004E = 78 octets (de loffset 0 à loffset 77)00 00 00 00 Réservé (toujours à 0)36 00 00 00 Offset de limage $00000036 = 5428 00 00 00 Taille de lentête $00000028 = 40 octets04 00 00 00 Largeur de limage $00000004 = 4 pixels02 00 00 00 Hauteur de limage $00000002 = 2 pixels01 00 Nombre de plans utilisés $0001 = 118 00 Nombre de bits par pixel = $0018 = 24 (3 octets)00 00 00 00 Méthode de compression : 0 pas de compression18 00 00 00 Taille de limage $00000018 = 24 octets = 8 (pixels) x 3 (octets par pixel)C4 0E 00 00 Résolution horizontale $00000EC4 = 3780 pixels par mètreC4 0E 00 00 Résolution verticale $00000EC4 = 3780 pixels par mètre00 00 00 00 Couleurs utilisées : 0 palette entière00 00 00 00 Nombre de couleurs important1440
    17. 17. Mise en œuvre du TNS Page 17 sur 64SignalSignal : Extension Une image est un signal (x, y). En informatique, limage brute (raw) est codée au format BMP :Octets SignificationFF 00 00 B=255, V=0, R=0 : Bleu00 00 00 B=0, V=0, R=0 : NoirFF 00 FF B=255, V=0, R=255 : VioletFF FF FF B=255, V=255, R=255 : Blanc00 00 FF B=0, V=0, R=255 : Rouge00 FF 00 B=0, V=255, R=0 : Vert00 FF FF B=0, V=255, R=255 : JauneFF FF 00 B=255, V=255, R=0 : Cyan
    18. 18. Mise en œuvre du TNS Page 18 sur 64SignalSignal : Extension Un signal est un message simplifié et généralement codé.Ce signal peut comporter plus de une dimension : En général, par signal on entend : y(x) ou x(t). Par extension, une image (2D) est aussi un signal :Monochrome: (x, y, 0 ou 1)16 couleurs: (x, y, 0 à 2^4−1)256 couleurs: (x, y, 0 à 2^8−1)65536 couleurs: (x, y, 0 à 2^16−1)24 bits couleurs: (x, y, 0 à 2^24−1) Par extension, une vidéo (3D) est aussi un signal :Monochrome: (x, y, t, 0 ou 1)16 couleurs: (x, y, t, 0 à 2^4−1)256 couleurs: (x, y, t, 0 à 2^8−1)65536 couleurs: (x, y, t, 0 à 2^16−1)24 bits couleurs: (x, y, t, 0 à 2^24−1)
    19. 19. Mise en œuvre du TNS Page 19 sur 64SignalSignal : Extension Un signal est un message simplifié et généralement codé. Ce signal peutcomporter un nombre de dimensions variables : Par extension, une vidéo "3D" (hors temps, 4D en fait) est aussi un signal :Couleurs: (x, y, z, t, niveau couleur) En pratique, une vidéo "3D" est constituée de deuxvidéos, une pour chaque œil : principe de la stéréoCouleurs: 2×(x, y, t, niveau couleur) Il existe cependant des vraies images 3D animées(4D, donc) :Scanner: (x, y, z, t, niveau couleur)http://fr.wikipedia.org/wiki/Scanner_(médecine)
    20. 20. Mise en œuvre du TNS Page 20 sur 64SignalSignal : Extension Un signal est un message simplifié et généralement codé. Ce signal peutcomporter un nombre de dimensions variables : Se pose alors le problème de la représentation de ces données :http://fr.wikipedia.org/wiki/Imagerie_par_résonance_magnétique
    21. 21. Mise en œuvre du TNS Page 21 sur 643. Compression
    22. 22. Mise en œuvre du TNS Page 22 sur 64Compression Quantification du codage: Quantification de linformation : Codage adapté à lalphabet. Probabilité doccurrence p(x) inconnue...Compression : Réduction du codage et conservation de linformation Nombre de symboles. Probabilité doccurrence. Nombre de symboles. Nombre de bits nécessaires.Nombre de symbolesNomBinaireDoigtsJoursMoisChiffresAlphabetASCIIASCII étenduNiveaux sur 16 bitsNiveaux sur 24 bits2 (0, 1)5 (pouce, …, annulaire)7 (lundi, …, dimanche)12 (janvier, …, décembre)10 (0 à 9)26 (A à Z)27= 12828= 256216= 65536224= 16777216 Codage adapté à linformation:probabilité doccurrence. Codage intégrantdes codes correcteurs.
    23. 23. Mise en œuvre du TNS Page 23 sur 64Compression Quantité dinformation: On vérifie bien I(x) = 0 pour p(x) = 1 et I(x) → + ∞ pour p(x) = 0.Compression : Réduction du codage et conservation de linformation Selon Shannon, la quantitédinformation I(x) sécrit :21( ) log( )I xp x =  ÷ ( )2( ) log ( )I x p x= −soit La quantité dinformation etson traitement sont directementliés à la base numérique dequantification (base 2) et à lanature de la source.
    24. 24. Mise en œuvre du TNS Page 24 sur 64Compression Généralisation:avecCompression : Réduction du codage et conservation de linformation Soit une source dinformation discrète finie stationnaire sans mémoire,soit lémission dune variable aléatoire X = {x1, x2, …, xN} avec uneprobabilité doccurrence p = {p(x1), p(x2), …, p(xN)} = {p1, p2, …, pN} associéerespectivement à chacun des caractères, alors lentropie [de Shannon]associée à chacun des caractères sécrit :2( ) . ( ) log ( )k k k k kH x p I x p p= = − Lentropie dune source dinformation est la quantité dinformationmoyenne associée à chaque symbole de la source. Lentropie de Shannonsécrit en fonction des probabilités d’occurrence pk de chacune desquantités dinformation I(xk) constituant le signal :( ) 21( ) ( ) log ( )Nk kkH X E I X p p== = −∑11Nkkp==∑
    25. 25. Mise en œuvre du TNS Page 25 sur 64Compression Borne supérieure:Compression : Réduction du codage et conservation de linformation2( ) log ( )H X N≤ Cette valeur limite de lentropieHmax(X), obtenue pour unedistribution uniforme, constituela borne supérieure de lentropie :max 2( ) log ( )H X N=max 21( ) log ( )Nk kkH X p p== −∑soit Dans le cas dun alphabetconstitué de N variablesindépendantes et équiprobables,alors pn= 1/N pour tout 1 ≤ n ≤ Νet lentropie est maximale :
    26. 26. Mise en œuvre du TNS Page 26 sur 64Compression Source binaire:Compression : Réduction du codage et conservation de linformationmax ( ) 1H X =( ) 0H X =22( ) log ( )(1 )log (1 )H X p pp p= −− − −et Dans ce cas, lalphabet seréduit à X = {0 ; 1}, et lentropieest donnée en fonction de p0= pet p1= 1−p, par :si p = {0;1} La valeur de lentropie H(X),nexcède pas la borne supérieurede lentropie Hmax(X) obtenue dansle cas equiprobable, i.e. p = 0,5 :
    27. 27. Mise en œuvre du TNS Page 27 sur 643.1. Compression non destructive
    28. 28. Mise en œuvre du TNS Page 28 sur 64CompressionCompression numérique sans perte Informatiquement, un signal numérique est une suite de bits représentant lasuccession des valeurs prises à certains instants. Chaque échantilloncorrespond à code ou codage. Par exemple, un signal de N échantillons codés chacun sur 2 octetsnécessite N×2×8 bits. Le problème posé est le suivant : Pour un signal numérique donné, est-ilpossible d’en réduire le codage, sans perdre d’information ? "Sans perdre d’information" signifie que le signal initial peut être reconstruitexactement à partir de cette représentation, soit une compression sans perte. Prenons l’exemple du code Morse. Chaque caractère est codé par unesuccession de points et traits. Mais ce codage est à longueur variable, adaptéeà la fréquence d’apparition des lettres : la lettre E (fréquente) est codée par : "·",alors que la lettre Z (rare) est codée par : "− − ··".
    29. 29. Mise en œuvre du TNS Page 29 sur 64CompressionCompression numérique sans perte Chaque échantillon correspond à code ou codage. Ainsi, la lettre E (fréquente) nécessite 1 symbole tandis que la lettre Z (rare)nécessite 4 symboles. Par exemple, pour notre alphabet latin de 26 lettres, unepremière approche nous indique que 5 symboles binaires sont nécessaires:2^5 = 32 (> 26). Par des méthodes de compression (RLE, Huffman, LZW…)on peut réduire le nombre moyen de symboles nécessaires. Cas particulier et contre-exemple: "La disparition" de Georges Perec. Le but est de transmettre en moyenne un moins grand nombre de symbolesélémentaires (trait ou point) qu’avec un codage où toutes les lettres seraientreprésentées par le même nombre de symboles. Dans ce chapitre nous formalisons ces notions, dans le cadre de la théoriestatistique de l’information de Claude Shannon (1916-2001) développéeessentiellement dans les années 1940-1950.
    30. 30. Mise en œuvre du TNS Page 30 sur 64Compression Compression RLE : Ce type de compression, surtout efficace et utilisé pourles images avec peu de couleurs consiste à relever les répétitions de symboleset indiquer leur nombre. Exemple:Soit la chaîne de caractères suivante:"AAAAAAAAAAAAAAABBBBBAAAAAAAACCCCCCCCCCCCCCCCDD".On a: A×15 B×5 A×8 C×16 D×2La compression RLE donne donc:"A#15 $ B#5 $ A#8 $ C#16 $ D#2"Avec "#" le nombre doccurrences successives, et "$" le séparateur de relevés.On est passé de 46 symboles à 21 symboles, soit α = 21/46 = 46%. Taux de compression :On définit le taux de compression par le ratio entre le nombre desymboles après compression Nc et celui avant compression Ni :ciNNα =Compression RLE : Run Length Encoding
    31. 31. Mise en œuvre du TNS Page 31 sur 64CompressionCompression numérique sans perte Codes préfixes: Codages (i.e. les concaténations de mots binaires) pouvantêtre décodés sans ambiguïté. On appelle code préfixe tout code tel que chaquemot n’est le début d’aucun autre. Exemple:Soit un alphabet à 4 symboles : X = {A; B; C; D}, classés par ordredécroissant de fréquence dapparition ou probabilité doccurrence.A0B10C110D111ABC D0 11100 Inégalité de Kraft:Si {w1, w2, …, wN} est un code préfixe binaire, alors il vérifie :12 1kNlk−=≤∑xkwk
    32. 32. Mise en œuvre du TNS Page 32 sur 64CompressionCompression HuffmanLe code préfixe associé à l’arbre créé (appelé "code de Huffman") minimise lalongueur moyenne parmi tous les codes préfixes :1Nmoy k kkL l p== ∑ Remarques :Le code de Huffman vérifie donc :Il n’y a pas unicité du code minimal : il peut y avoir des choix de fusion dansl’algorithme de Huffman, et le choix d’affectation des branches "gauche" et"droite" n’est pas spécifié.( ) ( ) 1moyH X L H x≤ < + Code Huffman: On considère l’arbre binaire pondéré construitrécursivement selon l’algorithme suivant : Initialisation : les symboles, pondérés par leur probabilité, sont les feuilles. Itération : tant que le graphe courant n’est pas connexe, fusionner lesdeux arbres dont les racines sont de poids les plus petits en créant une nouvelleracine de poids égal à la somme de ces poids, liée à ces deux sous-arbres.
    33. 33. Mise en œuvre du TNS Page 33 sur 64CompressionCompression Huffman Code Huffman: On considère l’arbre binaire pondéré construitrécursivement selon l’algorithme suivant : Initialisation : les symboles, pondérés par leur probabilité, sont les feuilles. Itération : tant que le graphe courant n’est pas connexe, fusionner lesdeux arbres dont les racines sont de poids les plus petits en créant une nouvelleracine de poids égal à la somme de ces poids, liée à ces deux sous-arbres.E0,2501xkpkwk Exemple:Soit un alphabet à 8 symboles : X = {A; B; C; D; E; F; G; H}, classéspar ordre décroissant de fréquence dapparition ou probabilité doccurrence.A0,2011B0,15001D0,15101C0,10100G0,050001H0,0500001F0,0500000 Décoder: "1000010001010100000100" et "0000010001010100000100".
    34. 34. Mise en œuvre du TNS Page 34 sur 64xkpkCompressionCompression Huffman Code Huffman: Méthode délaboration : Arbre : Fusionner les deux arbres dont les racines sont de poids les pluspetits en créant une nouvelle racine de poids égal à la somme de ces poids, liéeà ces deux sous-arbres.E0,25A0,20B0,15D0,15C0,10G0,05H0,05F0,050,100,150,250,300,450,551,00
    35. 35. Mise en œuvre du TNS Page 35 sur 64CompressionCompression Huffman Code Huffman: Méthode de lecture de l ’arbre : Le décodage d’un mot consiste à parcourir l’arbre en choisissant lesbranches de gauche ou de droite selon la valeur 0 ou 1 lue ; lorsqu’on arrive àune feuille on écrit la lettre correspondante et on continue la lecture après êtrerevenu à la racine.0,100,150,250,300,450,551,00E0,2500xkpkwkA0,2001B0,15100D0,15101C0,10110G0,051110H0,0511110F0,0511111
    36. 36. Mise en œuvre du TNS Page 36 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionner les deux probabilités de poids les plus petits en créantune nouvelle racine de poids égal à la somme de ces poids, liée à ces deuxsous-arbres.E0,250100xkpkwkwkA0,201101B0,15001100D0,15101101C0,10100110G0,0500011110H0,050000111110F0,050000011111Solution 1Solution 2 Décoder: "1000010001010100000100" et "0000010001010100000100". On vérifie facilement qu’il s’agit bien d’un code préfixe :aucun code n’est le préfixe d’un autre. On obtient un code Huffman différent de celui proposé initialement :il n ’y a pas unicité de la solution...
    37. 37. Mise en œuvre du TNS Page 37 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionner les deux probabilités de poids les plus petits en créantune nouvelle racine de poids égal à la somme de ces poids, liée à ces deuxsous-arbres.xk pk It.1 It.2 It.3 It.4 It.5 It.6E 0,25 0,25 0,25 0,25 0,30 0,45 0,55A 0,20 0,20 0,20 0,25 0,25 0,30 0,45B 0,15 0,15 0,15 0,20 0,25 0,25D 0,15 0,15 0,15 0,15 0,20C 0,10 0,10 0,15 0,15G 0,05 0,10 0,10H 0,05 0,05F 0,05
    38. 38. Mise en œuvre du TNS Page 38 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionner les deux probabilités de poids les plus petits en créantune nouvelle racine de poids égal à la somme de ces poids, liée à ces deuxsous-arbres.xk pk It.1 It.2 It.3 It.4 It.5 It.6E 0,25 0,25 0,25 0,25 0,30 0,45 0,55A 0,20 0,20 0,20 0,25 0,25 0,30 0,45B 0,15 0,15 0,15 0,20 0,25 0,25D 0,15 0,15 0,15 0,15 0,20C 0,10 0,10 0,15 0,15G 0,05 0,10 0,10H 0,05 0,05F 0,050100010001
    39. 39. Mise en œuvre du TNS Page 39 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionner les deux probabilités de poids les plus petits en créantune nouvelle racine de poids égal à la somme de ces poids, liée à ces deuxsous-arbres.xk pk It.1 It.2 It.3 It.4 It.5 It.6E 0,25 0,25 0,25 0,25 0,30 0,45 0,55A 0,20 0,20 0,20 0,25 0,25 0,30 0,45B 0,15 0,15 0,15 0,20 0,25 0,25D 0,15 0,15 0,15 0,15 0,20C 0,10 0,10 0,15 0,15G 0,05 0,10 0,10H 0,05 0,05F 0,05011000100011011
    40. 40. Mise en œuvre du TNS Page 40 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionner les deux probabilités de poids les plus petits en créantune nouvelle racine de poids égal à la somme de ces poids, liée à ces deuxsous-arbres.xk pk It.1 It.2 It.3 It.4E 0,25 0,25 0,25 0,25 0,30A 0,20 0,20 0,20 0,25 0,25B 0,15 0,15 0,15 0,20 0,25D 0,15 0,15 0,15 0,15 0,20C 0,10 0,10 0,15 0,15G 0,05 0,10 0,10H 0,05 0,05F 0,0500011011000001
    41. 41. Mise en œuvre du TNS Page 41 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionner les deux probabilités de poids les plus petits en créantune nouvelle racine de poids égal à la somme de ces poids, liée à ces deuxsous-arbres.xk pk It.1 It.2 It.3E 0,25 0,25 0,25 0,25A 0,20 0,20 0,20 0,25B 0,15 0,15 0,15 0,20D 0,15 0,15 0,15 0,15C 0,10 0,10 0,15 0,15G 0,05 0,10 0,10H 0,05 0,05F 0,05011011000001
    42. 42. Mise en œuvre du TNS Page 42 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionner les deux probabilités de poids les plus petits en créantune nouvelle racine de poids égal à la somme de ces poids, liée à ces deuxsous-arbres.xk pk It.1 It.2 It.3E 0,25 0,25 0,25 0,25A 0,20 0,20 0,20 0,25B 0,15 0,15 0,15 0,20D 0,15 0,15 0,15 0,15C 0,10 0,10 0,15 0,15G 0,05 0,10 0,10H 0,05 0,05F 0,05011011000001100101
    43. 43. Mise en œuvre du TNS Page 43 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionner les deux probabilités de poids les plus petits en créantune nouvelle racine de poids égal à la somme de ces poids, liée à ces deuxsous-arbres.xk pk It.1 It.2 It.3E 0,25 0,25 0,25 0,25A 0,20 0,20 0,20 0,25B 0,15 0,15 0,15 0,20D 0,15 0,15 0,15 0,15C 0,10 0,10 0,15 0,15G 0,05 0,10 0,10H 0,05 0,05F 0,050110110000010111000001100101
    44. 44. Mise en œuvre du TNS Page 44 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionner les deux probabilités de poids les plus petits en créantune nouvelle racine de poids égal à la somme de ces poids, liée à ces deuxsous-arbres.xk pk It.1 It.2E 0,25 0,25 0,25A 0,20 0,20 0,20B 0,15 0,15 0,15D 0,15 0,15 0,15C 0,10 0,10 0,15G 0,05 0,10 0,10H 0,05 0,05F 0,05011100000110010110001001
    45. 45. Mise en œuvre du TNS Page 45 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionner les deux probabilités de poids les plus petits en créantune nouvelle racine de poids égal à la somme de ces poids, liée à ces deuxsous-arbres.xk pk It.1 It.2E 0,25 0,25 0,25A 0,20 0,20 0,20B 0,15 0,15 0,15D 0,15 0,15 0,15C 0,10 0,10 0,15G 0,05 0,10 0,10H 0,05 0,05F 0,050111000001100101011100000110110001001
    46. 46. Mise en œuvre du TNS Page 46 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionner les deux probabilités de poids les plus petits en créantune nouvelle racine de poids égal à la somme de ces poids, liée à ces deuxsous-arbres.xk pk It.1E 0,25 0,25A 0,20 0,20B 0,15 0,15D 0,15 0,15C 0,10 0,10G 0,05 0,10H 0,05 0,05F 0,05011100000110110001001011100000110110011000010001
    47. 47. Mise en œuvre du TNS Page 47 sur 64CompressionCompression Huffman Code Huffman: Méthode délaboration : Tableau : Fusionner les deux probabilités de poids les plus petits en créantune nouvelle racine de poids égal à la somme de ces poids, liée à ces deuxsous-arbres.E0,250101xkpkwkwkA0,201111B0,15001000D0,15101001C0,10100101G0,0500011001H0,050000110000F0,050000010001Solution 1Solution 3 Décoder: "1000010001010100000100" et "0000010001010100000100". On vérifie facilement qu’il s’agit bien d’un code préfixe :aucun code n’est le préfixe d’un autre. On obtient un code Huffman différent de celui proposé initialement :il n ’y a pas unicité de la solution...
    48. 48. Mise en œuvre du TNS Page 48 sur 64CompressionCompression Autres codes de compression: Codage arithmétique (1976) :Comme le codage de Huffman, le codage arithmétique appartient à la familledes codages entropiques, dans le sens où il se base sur les fréquencesd’apparition des lettres pour coder avec peu de bits une lettre très fréquente.Dans le codage arithmétique, un message est codé par un décimal entre 0 et 1. Codage LZW (Lempel, Ziv, Welch,1984) :Dans les codages entropiques du type de celui de Huffman, un dictionnaire estcréé pour associer à chaque lettre de l’alphabet un mot binaire (de longueurvariable), à l’aide des statistiques de fréquence des lettres dans le message àcompresser. Dans le codage de LZW, le dictionnaire associe à des chaîne delettres de longueur variable figurant dans le message à compresser des motsbinaires de longueur fixée. Ceci permet d’exploiter les corrélations entre lessorties de la source X.
    49. 49. Mise en œuvre du TNS Page 49 sur 64CompressionCompression Autres codes de compression: Comparaison:The LZ methods are denoted by "o", the PPM methods by "*", and the BWT methods by "•".http://sun.aei.polsl.pl/~sdeor/pub/deo03.pdf, p.107-115
    50. 50. Mise en œuvre du TNS Page 50 sur 64CompressionCompression Formats informatiques: Données : ZIP, RAR, 7z... Images : BMP RLE (8 bits), GIF (8 bits), PNG (24 bits)... Exemple : Image 800x600 avec 4 quartiers : rouge, vert, bleu, gris.Compression ZIP: 5 344 octetsCompression RAR: 4 755 octetsCompression 7zip: 2 522 octetsOriginal BMP (24 bits): 1 440 054 octetsCompression BMP (RLE): 7 078 octetsCompression GIF (8 bits): 4 656 octetsCompression PNG (24 bits): 2 805 octets Exercice : Retrouver la taille du fichier BMP (24 bits) par le calcul.
    51. 51. Mise en œuvre du TNS Page 51 sur 64CompressionCompression Formats informatiques: Données : ZIP, RAR, 7z... Images : BMP RLE (8 bits), GIF (8 bits), PNG (24 bits)... Exemple 2 : Image 800x600 avec de nombreuses détails.Compression ZIP: 882 523 octetsCompression RAR: 779 488 octetsCompression 7zip: 715 501 octetsOriginal BMP (24 bits): 1 440 054 octetsCompression BMP (RLE): 365 908 octetsCompression GIF (8 bits): 222 321 octetsCompression PNG (24 bits): 697 615 octets
    52. 52. Mise en œuvre du TNS Page 52 sur 643.2. Compression destructive
    53. 53. Mise en œuvre du TNS Page 53 sur 64Compression destructiveCompression numérique avec perte Dans de nombreux domaines (image, son), la restitution des données sanspertes n’est pas un impératif absolu. Pour étayer ce constat, on peut partir deconsidérations mathématiques, mais aussi physiques et physiologiques. Considération mathématique: Décroissance des coefficients de FourierCe constat donne l’idée de "compresser" les signaux en ne transmettant que lescoefficients de Fourier suffisamment grands (puisqu’un certain nombre,correspondant à |n| grand, seront assez petits), par exemple en tronquant lasérie de Fourier. Néanmoins, ceci est la cause des phénomènes de pré-échodans les fichiers MP3, ou du phénomène de ringing (surlignage des bordscontrastés) dans les fichiers JPEG. Considération physique: Au-delà d’un certain échantillonnage et d’unecertaine quantification, le signal parait continu à nos sens. Considération physiologique: Nos sens sont "aveuglés" par des composantesdominantes, on parle de masquage.
    54. 54. Mise en œuvre du TNS Page 54 sur 64TCDZig-ZagBloc 8x81,2,….DC ACACRun Length CodingCompression destructiveCompression numérique avec perte Le format JPG : La compression JPEG (Joint Photographies Experts Group) Schéma de principe :
    55. 55. Mise en œuvre du TNS Page 55 sur 64Compression numérique avec perteImage originale Image reconstruite Image erreurCoefficients TCD64 coefficientsCompression destructive32 coefficients Le format JPG : La compression JPEG (Joint Photographies Experts Group)
    56. 56. Mise en œuvre du TNS Page 56 sur 64Compression numérique avec perteCompression destructiveImage originale Image reconstruite Image erreurCoefficients TCD8 coefficients1 coefficient Le format JPG : La compression JPEG (Joint Photographies Experts Group)
    57. 57. Mise en œuvre du TNS Page 57 sur 64Compression numérique avec perteCompression destructive Le format JPG : La compression JPEG (Joint Photographies Experts Group)Référence11 240 octetsFQ = 42 582 octetsα = 23%FQ = 101 582 octetsα = 14%FQ = 100528 octetsα = 5%
    58. 58. Mise en œuvre du TNS Page 58 sur 64CompressionCompression numérique avec perte Le format JPG : CompressionDonnées :FQ=1: 409 302 octetsFQ=2: 348 320 octetsFQ=5: 259 456 octetsFQ=10: 189 363 octetsFQ=20: 135 222 octetsFQ=50: 84 788 octetsFQ=99: 17 835 octets
    59. 59. Mise en œuvre du TNS Page 59 sur 64CompressionCompression numérique avec perte Le format JPG : CompressionPrincipe :Avec le schéma de codage très simplifié suivant, on remarque que le codagenous délivre deux tables (quatre pour une image couleur). Ces tables étantenregistrées dans le fichier final peuvent être choisies par le compresseur.Schéma de codage simplifié.
    60. 60. Mise en œuvre du TNS Page 60 sur 64Courbe de sensibilité de l ’oreille humaineA (dB)Fréquence120060log(f)Seuil deperceptionZone audibleson S1son S2Au dessous du seuil,les sons nesont plus audiblesCompression numérique avec perteCompression destructive Le format MP1 audio : fondé sur le standard MUSICAM(Masking Pattern Adapted Universal Subband Integrated Coding) Débit WAV (CD) :Débit 1411 kb/s (2x44100/sx16bits). Débit MPEG 1 : Débit 192 kb/s (2x96kbits/s)
    61. 61. Mise en œuvre du TNS Page 61 sur 64A (dB)Fréquence120060log(f)Seuil deperceptionZone audibleS1 S2A (dB)Fréquence120060log(f)Zone audible Le son S2 ne doit pas être prisen compte : il est masqué par unson S1 plus important. Le seuil de perception varieen fonction du contenu spectral.Compression numérique avec perteCompression destructive Le format MP1 audio : fondé sur le standard MUSICAMS1 S3S2Seuil deperceptionS4
    62. 62. Mise en œuvre du TNS Page 62 sur 64Sous-bande 750 Hzffe/2 =24 kHzA (dB)Fréquences120060log(f)Compression numérique avec perteCompression destructive Le format MP1 audio : fondé sur le standard MUSICAM Les spectre audio est découpé en 32 sous-bandes de fréquence : La courbe de masquage est déterminée entemps réel : modèle psycho-acoustique. La quantification varie en fonctionde la sensibilité de l’oreille : modèlepsycho-acoustique.Modèlepsycho-acoustique
    63. 63. Mise en œuvre du TNS Page 63 sur 64Images animéesNumérisationQuantificationDCTSeuillageRLCHuffman (VLC)MPEGCompressiontemporelleCompressionspatialeNon réversibleProduction d ’une séquence MPEGCompression destructive
    64. 64. Mise en œuvre du TNS Page 64 sur 64 Image spatiale → Image fréquentielle (TCD) Image fréquentielle → Spectre 2D Quantification → Privilégie les harmoniques principaux Codage du Run Length Code (RLC) + Codage d ’Huffman Méthode Zig-ZagProduction d ’une séquence MPEGCompression destructive Méthode irréversible : Taux de compression élevé => Perte d’information élevée Compression temporelle → Trame de référence.

    ×