Quelques termes techniques

Le jargon de la vidéo

Vous trouverez ci-dessous la défintion des principaux termes utilisés dans le domaine de la vidéo.

Chrominance : signal contenant les informations liées à la couleur du signal vidéo.

CODEC (COder et DECoder) : c’est un algorithme qui va compresser l’information. Il en existe une infinité. Certains vont compresser avec perte et d’autres sans. Exemple de CODEC pour la vidéo : le MPEG 2 (DVD), le MPEG 4 (BluRay, TNT HD), le HVEC (UHD), le DIVX, le ProRes...

Composite (signal) : le signal comporte simultanément les informations sur la chrominance et la luminance. Ce mode est utilisé dans tous les standards de télévision du monde pour une compatibilité du mode de diffusion en noir & blanc de l’époque.

Conteneur : on peut faire la comparaison avec une boite contenant toutes les informations du signal : vidéo, audio, métadonnées. Les flux vidéo et audio pouvant être encodés avec différents CODEC. Les conteneurs les plus courants sont AVI (PC), MOV (Mac), MKV, FLV. Certains conteneurs ne sont compatibles qu’avec certains CODEC comme le FLV par exemple.

Débit numérique : c’est le nombre d’information lu en une seconde. Par exemple 1Mb/s.

Échantillonnage (vidéo numérique) : l’œil humain est plus sensible à la luminance (image noir & blanc) qu’à la chrominance. De ce fait, on conserve intégralement les informations de luminance et supprime les informations de la chrominance sur une partie de l’image (sauf pour le 4:4:4 où toutes les informations sur la chrominance sont conservées). Ci-dessous un exemple des différentes structures d’échantillonnage utilisées :

4:2:2 4:1:1 4:2:0 4:4:4
Un pixel sur deux est mesuré pour la chrominance. Utilisé en TV. Un pixel sur quatre est mesuré pour la chrominance. Un pixel sur deux d'une ligne sur deux est mesuré pour la chrominance. Tous les pixels sont mesurés pour la chrominance.

Chaque case correspond au signal de luminance, les • correspondent au signal de chrominance. À noter que le format 4:4:4 très gourmand en ressource est essentiellement utilisé dans le cinéma.

Fréquence d’images : d’une manière générale, elle est de 25 images par seconde pour le PAL/SECAM et de 30 images par seconde pour le NTSC. La fréquence d’images était dépendante de celle du courant électrique (50 Hz en Europe et 60 Hz aux États-Unis). En France les fréquences d’images pour la vidéo professionnelles sont de 24, 25 et 50 images par seconde. Aux États-Unis, elles sont de 29,97, 30 et 60 images par seconde (notamment utilisé dans les appareils photos et vidéo grand public).

HEVC/H.265 :High-Efficience Video Coding - Dernier standard de compression qui a pour but de diviser par deux les débits par rapport au MPEG 4 AVC/H.264 et par 4 par rapport au MPEG 2. Il est retenu pour la diffusion de l'UHD sur la TNT (des tests sont en cours sur l'émetteur de la Tour Eiffel). Cependant, ce codec est très gourmand en ressource informatique puisque la complexité de codage, par rapport au H264, est de 5 à 10 et de l'ordre de 2 pour le décodage.

Image entrelacée (i) : un premier balayage n’affiche que les lignes paires puis un second affiche les lignes impaires. L’image est donc composée de deux trames. Cette technologie est liée au tube cathodique. Les programmes de télévision sont toujours transmis en mode entrelacé sur la TNT. Exemple de mode entrelacé en HD : 1080i.

Image progressive (p) : toute l’image est affichée en même temps. C’est ce qui se passe au cinéma par exemple. Exemple de mode progressif en HD : 1080p.

Luminance : signal qui comporte les informations sur l’intensité lumineuse. En l’absence de chrominance, on obtient une image en noir & blanc. L’œil humain est très sensible à cette information.

Mode de balayage : il peut être entrelacé (i) ou progressif (p).

MPEG 1 : premier standard de compression vidéo lancé en 1993 après 4 ans de recherche par le comité MPEG. Il a été conçu pour le CD-Vidéo en permettant de mettre 74 minutes de programmes sur un CD (700 Mo). La définition est de 360 x 288 pixels (assez proche du format VHS) : ce format utilise une trame sur deux par rapport à la définition TV en la dupliquant lors de l'affichage. Ce format a connu un vif succès en Asie.

MPEG 2 : il s'agit d'une grosse évolution de la première version car certains profils sont destinés à l'univers du broadcast. Normalisé en 1995, ce codec supporte plusieurs résolution de la SD (720 x 576) à la HD (1920 x 1080). C'est la norme utilisé pour les DVD, la TNT SD et les premières générations de BluRay.

MPEG 4 : ce format de compression comporte deux standards : la Partie 2 (normalisé en 2000) et la Partie 10 (plus connue sous le nom de AVC/H264 développé en 2003). La Partie offre un gain de 20 % par rapport au MPEG 2. Cependant, ce standard a vite été éclipsé par la Partie 10 qui a connu de grands développements (voir Partie 10).

NTSC (National Television System Committee – Comité du système de télévision national) : il a été lancé aux États-Unis en 1953 ce qui en fait l’ancêtre de la télévision couleur. Il a été utilisé en Amérique du nord, le Mexique et au Japon. Lors de son utilisation pour une diffusion hertzienne, ce système a fait l’objet de nombreuse critique dû à un déphasage de la chrominance. Par exemple, la couleur de la peau humaine pouvait varier du verdâtre à l’orangé sombre. D'où son surnom : "Never Twice the Same Color (Jamais deux fois la même couleur)". Vers le début des années 90, un nouveau réglage permettait de régler ce problème : la teinte. Ce souci est inexistant sur les standards TV européen.

PAL (Phase Alternating Line – Alternance de phase selon les lignes) : système mis au point en Allemagne par Walter Bruch et en France par Gérard Melchior en reprenant certaines spécificités techniques du NTSC. Il fût lancé en 1963. Il existe différentes spécifications techniques de télédiffusion : B/G, I, D/K, M (utilisé pour sa compatibilité avec le NTSC) et N. Il sera utilisé en Europe (à l’exception de la France), certains pays d’Amérique du sud, l’Australie et certains pays d’Afrique. Dans les paramètres de ce système, la cadence de l’image n’est pas indiquée. Bien qu’il soit associé à une fréquence de 25 images par seconde, le PAL peut tout à fait s’adapter à d’autres fréquences. Ce procédé a été largement dominant en Europe avec son utilisation pour le Laserdisc et le DVD. Les magnétoscopes S-VHS, Video8 et Hi8 n’existent qu’en PAL. Pour les modèles PAL/SECAM, un transcodage du signal SECAM est fait en PAL lors de l’enregistrement. Les deux standards offrent une conversion aisée d’un système à l’autre. Le PAL+ a été mis au point uniquement pour une utilisation en 16/9.

Partie 10 : c'est un des profils du MPEG 4. Sa compression offre un gain de 50 % par rapport au MPEG 2. Plusieurs profils font que ce codec s'adapte à toutes les utilisations : de la vidéoconférence au cinéma numérique en 4K (avec un échantillonage en 4:4:4).

Quantification : nombre de bits utilisés pour coder une information numérique. Plus celui-ci est élevé, plus la qualité de conversion sera précise. Par exemple une photo quantifiée sur 8 bits (8 bits par couleurs soit 24 bits au total) donnera une palette de 16.777.216 couleurs possibles (soit 2^24) et sur 10 bits on obtiendra une palette de 1.073.741.824 couleurs (soit 2^30).

Ratio : il s’agit du rapport largeur sur hauteur. En vidéo, les deux formats usuels sont 4/3 (1.33) et 16/9 (1.77).

Résolution vidéo : il s’agit du nombre de pixel en largeur et hauteur. Les principales sont :

  • DV / DVD : 720 x 576 (DV PAL) ou 720 x 480 (DV NTSC),
  • High Definition Video (format DV HD) : 1440 x 1080 (image étirée dans la largeur pour afficher du 1920 x 1080),
  • Full HD : 1920 x 1080,
  • Ultra HD (appelé à tort 4K) : 3840 x 2160.

À noter que le DV et le DVD n’étaient pas du tout prévu pour le format 16/9. L’image est donc déformée en 4/3 (compressée dans la largeur). Lors de l’affichage, l’image est anamorphosée avec des pixels rectangulaire affichant une image de 1024 x 576. L’astuce sera utilisée pour le format HD du DV (1440 x 1080). Elle a été également utilisée au début de la TNT pour l’affichage en 16/9e et au tout début de la TNT HD (le CODEC de compression ayant été optimisé depuis).

RVB (rouge, vert, bleu) : c'est le mélange des ces trois couleurs primaires qui permet d'afficher toutes les nuances. En numérique, le nombre de couleurs restitué dépend de la quantification.

SECAM (SEquentiel Couleur À Mémoire) : système mis au point par Henri de France et lancé en 1967. Il a été utilisé en France, l'Afrique francophone, l’ex-URSS et quelques autres pays. Différentes spécifications techniques de télédiffusion ont été utilisées : le L/L’, B/G, D/K, K’/K1. Bien que supérieur aux autres standard vidéo, le SECAM a été abandonné par les chaînes de télévision au début des années 80 (Canal + ayant adopté dès sa création le PAL, la conversion en SECAM étant assurée pour la livraison du signal à TDF) pour des raisons de coûts. En effet, le mélange de deux sources SECAM imposait une démodulation et une re-modulation du signal. Le système a été définitivement abandonné en France en 2011 lors du passage à la TNT et en 2015 sur les réseaux câblés. Il est intéressant de noter que les Français un système en noir & blanc de 819 lignes en 4/3 : on dit souvent qu’il s’agit du premier système haute définition.

Standards TV : au temps de la télévision analogique, les trois standard TV et vidéo ont été le PAL, le SECAM et le NTSC. Ils avaient la particularité de rester compatible avec les normes en noir & blanc de l’époque.

Signal Y/C : les signaux de luminance et chrominance sont traités séparément.