Compression de données

Infos
On peut classifier les méthodes de compressions en deux types, compression avec perte — également dite non conservative — et compression sans perte.
Compression de données

On peut classifier les méthodes de compressions en deux types, compression avec perte — également dite non conservative — et compression sans perte.

Compression sans perte

La compression est dite sans perte lorsqu'il n'y a aucune perte de données sur l'information d'origine. Il y a autant d'information après la compression qu'avant, elle est seulement réécrite d'une manière plus concise (c'est par exemple le cas de la compression gzip pour n'importe quel type de données ou du format PNG pour des images synthétiques destinées au WebCes 2 types de compressions gzip et PNG sont libres et non soumis à un brevet.). La compression sans perte est dite aussi compactage. L'information à compresser est vue comme la sortie d'une source de symboles qui produit des textes finis selon certaines règles. Le but est de réduire la taille moyenne des textes obtenus après la compression tout en ayant la possibilité de retrouver exactement le message d'origine (on trouve aussi la dénomination codage de source en opposition au codage de canal qui désigne le codage correcteurs d'erreurs). Les formats de fichier de compression sans perte sont connus grâce à l'extension ajoutée à la fin du nom de fichier (« nomdefichier.zip » par exemple), d'où leur dénomination très abrégée. Les formats les plus courants sont :
- 7z
- ace
- arc
- arj
- bz, bz2 (tar peut être utilisé pour créer les archives de ce type)
- CAB, utilisé par Microsoft
- gzip, gz (qui est un fichier à une seule entrée, tar peut être utilisé pour créer les archives de ce type)
- KGB
- lzh
- rar
- Z (surtout sous Unix)
- Zip
- zoo
- FLAC (pour les flux audio) Les standards ouverts les plus courants sont décrits dans plusieurs RFCs :
- RFC 1950 (ZLIB, flux de données compressées)
- RFC 1951 (système de compression par blocs « DEFLATE », utilisé par zip et gz)
- RFC 1952 (format de fichier compressé GZIP) Sur les limites de la compression sans perte, voir Paradoxe du compresseur.

Codage RLE

Les lettres RLE signifient run-length encoding. Il s'agit d'un mode de compression parmi les plus simples : toute suite de bits ou de caractères identiques est remplacée par un couple (nombre d'occurrences ; bit ou caractère répété).

Compression CCITT

C'est une compression d'images utilisée pour le fax. Elle peut être de type RLE (on code les suites de pixels blancs et de pixels noirs) et bidirectionnelle (on déduit une ligne de la précédente). Il existe plusieurs types de compressions ("groupe") suivant l'algorithme utilisé et le nombre de couleurs du document (monochrome, niveau de gris, couleur).

Codage de Huffman

L'idée qui préside au codage de Huffman est voisine de celle utilisée dans le code Morse : coder ce qui est fréquent sur peu de place, et coder en revanche sur des séquences plus longues ce qui revient rarement (entropie). En morse le « e », lettre très fréquente, était codé par un simple point, le plus bref de tous les signes. L'originalité de David A. Huffman est qu'il fournit un procédé d'agrégation objectif permettant de constituer son code dès lors qu'on possède les statistiques d'utilisation de chaque caractère. Le Macintosh d'Apple codait les textes dans un système inspiré de Huffman : les 15 lettres les plus fréquentes (dans la langue utilisée) étaient codées sur , et la 16 combinaison était un code d'échappement indiquant que la lettre était codée en ASCII sur les suivants. Ce système permettait une compression des textes voisine en moyenne de à une époque où la mémoire était extrêmement chère par rapport aux prix actuels (compter un facteur 1000).

Lempel-Ziv 1977 (LZ ou LZ77)

La compression Lempel-Ziv remplace des motifs récurrents par des références à leur première apparition. Elle donne de moins bons taux de compression que d'autres algorithmes (PPM, CM), mais a le double avantage d'être rapide et asymétrique (c'est-à-dire que l'algorithme de décompression est différent de celui de compression, ce qui peut être exploité pour avoir un algorithme de compression performant et un algorithme de décompression rapide). LZ77 est notamment la base d'algorithmes répandus comme Deflate (Zip, Gzip) ou LZMA (7-Zip).

Lempel-Ziv 1978 et Lempel-Ziv-Welch (LZ78 et LZW)

La compression Lempel-Ziv-Welch est dite de type dictionnaire. Elle est basée sur le fait que des motifs se retrouvent plus souvent que d'autres et qu'on peut donc les remplacer par un index dans un dictionnaire. Le dictionnaire est construit dynamiquement d'après les motifs rencontrés.

Transformée de Burrows-Wheeler (BWT)

Il s'agit d'un mode de réorganisation des données et non un mode de compression. Il est principalement destiné à faciliter la compression de texte en langue naturelle, mais il est également utilisable pour compresser n'importe quelles données binaires. Cette transformation, qui est complètement réversible, effectue un tri sur toutes les rotations du texte source, ce qui tend à regrouper les caractères identiques ensemble en sortie, ce qui fait qu'une compression simple appliquée aux données produites permet souvent une compression très efficace.

Prédiction par reconnaissance partielle (PPM)

La prédiction par reconnaissance partielle se base une une modélisation de contexte pour évaluer la probabilité des différents symboles. En connaissant le contenu d'une partie d'une source de données (fichier, flux…), un PPM est capable de deviner la suite, avec plus ou moins de précision. Un PPM peut être utilisé en entrée d'un codage arithmétique par exemple. La prédiction par reconnaissance partielle donne en général de meilleurs taux de compression que des algorithmes à base de Lempel-Ziv, mais est sensiblement plus lente. Note : PPM est également utilisé pour l'autocomplétion des commandes dans certains systèmes Unix.

Codage arithmétique

Le codage arithmétique est assez similaire au codage de Huffman en ceci qu'il associe aux motifs les plus probables les codes les plus courts (entropie). Contrairement au codage de Huffman qui produit au mieux des codes de , le codage arithmétique peut produire des codes vides. Le taux de compression obtenu est par conséquent meilleur.

Pondération de contextes (CM)

La pondération de contextes consiste à utiliser plusieurs prédicteurs (par exemple des PPMs) pour obtenir l'estimation la plus fiable possible du symbole à venir dans une source de données (fichier, flux…). Elle peut être basiquement réalisée par une moyenne pondérée, mais les meilleurs résultats sont obtenus par des méthodes d'apprentissage automatique comme les réseaux de neurones. La pondération de contextes est très performante en termes de taux de compression, mais est d'autant plus lente que le nombre de contextes est important. Actuellement, les meilleurs taux de compression sont obtenus par des algorithmes liant pondération de contextes et codage arithmétique, comme PAQ.

Compression avec pertes

La compression avec pertes ne s'applique qu'aux données « perceptuelles », en général sonores ou visuelles, qui peuvent subir une modification, parfois importante, sans que cela ne soit perceptible par un humain. La perte d'information est irréversible, il est impossible de retrouver les données d'origine après une telle compression. La compression avec perte est pour cela parfois appelée compression irréversible ou non conservative. Cette technique est fondée sur une idée simple : seul un sous-ensemble très faible de toutes les images possibles (à savoir celles que l'on obtiendrait par exemple en tirant les valeurs de chaque pixel par un générateur aléatoire) possède un caractère exploitable et informatif pour l'œil. Ce sont donc ces images-là qu'on va s'attacher à coder de façon courte. Dans la pratique, l'œil a besoin pour identifier des zones qu'il existe des corrélations entre pixels voisins, c'est-à-dire qu'il existe des zones contiguës de couleurs voisines. Les programmes de compression s'attachent à découvrir ces zones et à les coder de la façon aussi compacte que possible. La norme JPEG 2000, par exemple, arrive généralement à coder des images photographiques sur 1 bit par pixel sans perte visible de qualité sur un écran, soit une compression d'un facteur 24 à 1. Puisque l'œil ne perçoit pas nécessairement tous les détails d'une image, il est possible de réduire la quantité de données de telle sorte que le résultat soit très ressemblant à l'original, voire identique, pour l'œil humain. La problématique de la compression avec pertes est d'identifier les transformations de l'image ou du son qui permettent de réduire la quantité de donnée tout en préservant la qualité perceptuelle. De même, seul un sous-ensemble très faible de sons possibles est exploitable par l'oreille, qui a besoin de régularités engendrant elles-mêmes une redondance (coder avec fidélité un bruit de souffle n'aurait pas grand intérêt). Un codage éliminant cette redondance et la restituant à l'arrivée reste donc acceptable, même si le son restitué n'est pas en tout point identique au son d'origine. On peut distinguer trois grandes familles de compression avec perte :
- par prédiction, par exemple l'ADPCM ;
- par transformation. Ce sont les méthodes les plus efficaces et les plus utilisées. (JPEG, JPEG 2000, l'ensemble des normes MPEG…) ;
- compression basée sur la récurrence fractale de motifs (Compression fractale). Les formats MPEG sont des formats de compression avec pertes pour les séquences vidéos. Ils incluent à ce titre des codeurs audio, comme les célèbres MP3 ou AAC, qui peuvent parfaitement être utilisés indépendamment, et bien sûr des codeurs vidéos — généralement simplement référencés par la norme dont ils dépendent (ex: MPEG-2, MPEG-4), ainsi que des solutions pour la synchronisation des flux audio et vidéo, et pour leur transport sur différents types de réseaux.

Récapitulatif


-Note 1 : Certains algorithmes peuvent être brevetés.
-Note 2 : Le format TIFF encapsule un mode de codage de l'image, qui peut être compressée ou non, avec l'un des algorithmes sus-cités.
-Note 3 : JPEG 2000 possède un mode sans perte (utilisant une transformée en ondelettes réversible) en plus du mode standard avec pertes, d'où sa présence dans les 2 parties du tableau.

Notes

Bibliographie

- Istok Kespret - Compresser vos données avec LHA, PKZIP, ARJ … - (éd. Micro Application, coll. "Le livre de", 1994) - 348 p. - ISBN 2-7429-0172-8 ===
Sujets connexes
ACE (format de fichier)   ARC (format de fichier)   ARJ   Adaptive Differential Pulse Code Modulation   Advanced Audio Coding   Apple, Inc.   Apprentissage automatique   Bzip2   CAB (format de fichier)   Codage de Huffman   Compress   Compression audio   Compression d'image   Compression fractale   Compression vidéo   Deflate   DjVuPhoto   Encapsulation (programmation)   Entropie de Shannon   Format de données   Graphics Interchange Format   Gzip   IFF   IMG   JPEG-LS   JPEG 2000   KGB Archiver   LZMA   MJPEG2000   MPEG-1   MPEG-2   MPEG-4   Macintosh   Micro Application   Monkey's Audio   PAQ (logiciel)   PCX   Paradoxe du compresseur   Pixel   Portable Network Graphics   Quantification vectorielle   Quotient de compression   RAR (format de fichier)   Run-length encoding   Speex   Tar (informatique)   Taux de compression   Théorie de l'information   Télécopieur   Vorbis   World Wide Web   Z   ZIP (format de fichier)   Zip   Zoo  
#
Accident de Beaune   Amélie Mauresmo   Anisocytose   C3H6O   CA Paris   Carole Richert   Catherinettes   Chaleur massique   Championnat de Tunisie de football D2   Classement mondial des entreprises leader par secteur   Col du Bonhomme (Vosges)   De viris illustribus (Lhomond)   Dolcett   EGP  
^