Glossaire vidéo


Entrée Définition
12G-SDI Acronyme de 12 Gigabits High Définition Serial Digital Interface.
Interface de transport de la famille SDI. Existe sur câble coaxial (connecteur BNC) ou sur fibre monomode (connecteur LC).
Permet le transport de vidéo numérique en 2160p jusqu’à 60 images/s, en non compressé, 4:2:2 sur 10 bits, ainsi que 16 pistes audio (audio Embedded) à environ 12Gbits/s.
Voir aussi : HD-SDI, 3G-SDI, 6G-SDI,12G-SDI, dual link et quad link.
1080i Format d’image HD en 1920×1080 en entrelacé  (i=interlaced)
24p Terme souvent utilisé pour le format 1920×1080 à 24 images par seconde en progressif.
Permet de faire un master unique  les programmes de fiction, pouvant par la suite être transcodé pour sa diffusion en TV ou en salle de cinéma.
3G-SDI Acronyme de 3 Gigabits High Definition Serial Digital Interface.
Interface de transport de la famille SDI. Existe sur câble coaxial (connecteur BNC) ou sur fibre monomode (connecteur LC).
Permet le transport de vidéo numérique en 1080p50 ou 60, en non compressé, 4:2:2 sur 10 bits, ainsi que 16 pistes audio (audio embedded) à 2,97Gbits/s.
existe en version level A : 1 signal transporté et level B: 2 signaux HD transportés.
Voir aussi : HD-SDI, 3G-SDI, 6G-SDI,12G-SDI, dual link et quad link.
4:1:1 Sous échantillonnage couleur : L’information de luminance Y est transmise pour chaque pixel, tandis que les informations de couleur Cb et Cr sont transmises un pixel sur 4 à chaque ligne. Le 4:1:1 est utilisé en définition standard par certains codecs comme le DVCPRO  ou dans les pays à 30 images par seconde.
4:2:0 Sous échantillonnage couleur : L’information de luminance Y est transmise pour chaque pixel, tandis que les informations de couleur Cb et Cr sont transmises un pixel sur 2 et une ligne sur 2.
Les  principaux domaines d’utilisation du 4:2:0 sont la diffusion et les formats d’enregistrement grand public. Cependant pour des raisons économiques, le 4:2:0 est parfois utilisé aussi pour la production en TV (contribution, actualités, chaînes régionales…)
4:2:2 Sous-échantillonnage couleur : L’information de luminance Y est transmise pour chaque pixel, tandis que les informations de couleur Cb et Cr sont transmises un pixel sur 2 à chaque ligne.
Les principaux domaines d’utilisation du 4:2:2 sont la production et la postproduction TV.
4:4:4 Absence de sous-échantillonnage couleur : pour chaque pixel, les 3 informations R,V,B ou Y Cb, Cr sont transmises.
Les principaux domaines où l’on travaille en 4:4:4: sont : le cinéma numérique (production, distribution et diffusion en salle), les effets spéciaux poussés, et l’infographie.
4:4:4:4 Absence de sous-échantillonnage couleur + transmission d’un canal alpha : pour chaque pixel, les 3 informations R,V,B ou Y Cb, Cr sont transmises, plus une information pour le canal alpha.
Le 4:4:4:4 est utilisé en postrproduction haut de gamme.
4K Format d’image en 4096×2160 défini par le DCI
6G-SDI Acronyme de 6 Gigabits High Definition Serial Digital Interface.
Interface de transport de la famille SDI. Existe sur câble coaxial (connecteur BNC) ou sur fibre monomode (connecteur LC).
Permet le transport de vidéo numérique en 2160p jusqu’à 30 images/s, en non compressé, 4:2:2 sur 10 bits, ainsi que 16 pistes audio (audio embedded) à environ 6 Gbits/s.
Voir aussi : HD-SDI, 3G-SDI, 6G-SDI,12G-SDI, dual link et quad link.
720p Standard de Haute définition (SMPTE 296) : La taille de l’image est 1280×720,  plusieurs cadences d’images sont supportées de 23,98 jusqu’à 60 i/s toujours en progressif.
AAF Advanced Authoring Format. Format de fichier pour la postproduction. Il permet de faciliter l’échange entre les stations de postproduction, en ne transportant pas les effets déjà calculés, mais en transportant une Edit list comportant la description des effets qui seront calculés plus en aval dans la chaîne de posproduction. Il ne comporte pas nécessairement les médias mais peut pointer vers ceux-ci. Le format AAF  a donné naissance par la suite au format MXF.
Active (image) Partie du signal vidéo contenant les informations visuelles (signal vision).
Les autres parties du signal vidéo sont appelées les suppressions (blanking), elles contiennent les informations de synchronisation ainsi que les données auxiliaires.
AFD Active Format Descriptor : Métadonnée indiquant au décodeur ou au téléviseur quel est l’aspect ratio de l’image d’origine et comment il doit convertir cette image pour s’adapter à l’aspect ratio de l’écran d’affichage.
Aliasing Défaut sur l’image se caractérisant par du moirage sur les détails fins ou par du crénelage sur les lignes obliques.
Le défaut d’aliasing peut avoir plusieurs causes :
– Le capteur de la caméra (interférence entre le pas des photosites sur le capteur et les détails fins de la scène)
-Les titres et autres éléments de vidéographie
– Les conversions de standard notamment la down-conversion.
Alpha (canal) Canal supplémentaire dédié à la transmission d’un signal de découpe ou de masque associé à une image vidéo, pour pouvoir réaliser en postproduction une incrustation ou un masque d’effet.
Aspect ratio Rapport entre la largeur et la hauteur de l’image. Ce rapport était de  1,33 soit 4/3, en SD puis la SD a évolué vers le 16/9 (1,78) La TVHD a définitivement adopté le 16/9.
ATSC Advanced System Television Committee. Aux Etats-Unis, comité ayant établi les normes de diffusion télévision numérique.
AVC Voir MPEG-4
AVC Intra Famille de codecs proposée par Panasonic pour l’enregistrement sur les cartes P2 des caméras.
Le plus utilisé est  l’AVCINTRA 100  (full HD sur 10 bits en 4:2:2 à environ 100Mbits/s). Ces codecs sont conformes au standard H264, en version très haute qualité et intra-image.
L’AVC INTRA 100 est aussi utilisé dans certains pays pour la livraison des fichiers PAD.
AVI Audio Vidéo Interleaved. Format de fichier audio/vidéo défini par Microsoft.
Back Focus Réglage placé à l’arrière d’un objectif, qui permet d’assurer que la mise au point sera conservée quelle que soit la focale du zoom.
Ce réglage, également appelé souvent tirage optique, consiste à ajuster le plan de formation de l’image à la position du capteur. Il doit être vérifié à chaque changement d’objectif, à pleine ouverture.
Bande passante Ensemble des fréquences qu’un appareil électronique peut traiter puis transmettre. La bande passante nécessaire pour transmettre correctement un signal audio est de 20Hz à 20 kHz alors qu’elle est de 0 à 5,5 MHz en vidéo SD et de 0 à 30 MHz en HD.
Par extension, en numérique on utilise l’expression bande passante pour parler du débit maximum qu’un réseau doit pouvoir faire passer.
Beta num Voir Digital Betacam
Betacam SX Format d’enregistrement numérique sur cassettes ½ pouce proposé par Sony, succédant  au Betacam SP. Traite le signal vidéo en 4:2:2 et utilise une réduction de débit de type MPeg-2 4:2:2  sur 8 bits avec un GOP de 2 (IBIBIBIBI…). Le taux de compression est de 10:1, le débit vidéo étant de 18 Mbits/s.
BFF (Bottom Field first) Ordre d’analyse de l’image entrelacée : la trame du bas en premier
Utilisé dans le codec DV et en définition standard, dans les pays à 30 images par seconde.
B-frame Image Bidirectionnelle. Dans un mécanisme de compression inter-image, désigne des images qui sont encodées à partir d’images pouvant être précédentes, et/ou postérieures dans l’ordre d’affichage.
Bit Abréviation de Binary Digit (chiffre binaire) 0 ou 1. Plus petite unité de codage et de stockage dans un système numérique binaire. Notation : b.
Bitrate débit binaire exprimé généralement en bits par seconde.
Blanking Voir suppression
Blockiness Effet de bloc
artefact de compression dû à la diminution de la quantité de détail dans les blocs de transformée.
Blur flou  – Lissage des détails fins
Broadband Bande passante large.  Par opposition au broadcast, on utilise le terme broadband pour désigner l’utilisation des réseaux informatiques pour la diffusion de contenus audiovisuels. (TV par ADSL ou par fibre, OTT)
Broadcast Diffusion large
1) Techniques de diffusion TV point-multipoints : TNT, télévision par satellite, télévision par câble.
Par extension, on parle de qualité broadcast  pour désigner la qualité technique d’un programme pour sa diffusion TV. On parle de broadcasters pour désigner les chaînes de TV.
2) Dans les réseaux informatiques : mode de diffusion des paquets qui seront envoyés à toutes les entités connectées à ce réseau.
Byte Voir octet
CABAC Voir Entropique (codage)
Cb Composante couleur numérique obtenue en calculant B-Y (bleu – luminance)
CBR Abréviation de Constant Bit Rate (débit binaire constant).
Mode ce compression avec lequel le débit ne varie pas (ou peu). Dans ce mode de compression, en fonction de la complexité des images à encoder, la qualité de l’image peut varier.
CCD Charge Coupled Device (dispositif à transfert de charges). Elément central de la caméra, le capteur CCD est chargé de traduire les variations lumineuses en un signal électrique. Une caméra broadcast est équipée de trois capteurs CCD, un pour chaque couleur primaire R,V,B tandis qu’un caméscope grand public n’en possède qu’un ; la séparation des couleurs est réalisée par une mosaïque de filtres.
Le capteur CCD est un circuit intégré doté sur sa face supérieure d’une matrice de plusieurs centaines de milliers de cellules photosensibles appelés photosites. Chaque photosite produit une charge proportionnelle au niveau d’éclairement reçu pendant le temps d’exposition.
CCIR Comité Consultatif International des Télécommunications  ancien nom de l’ITU-R (voir ITU)
CCU Abréviation de Camera Control Unit. Unité électronique, généralement appelée voie de commande, à laquelle est associée la caméra vidéo lorsqu’elle est reliée à une régie fixe ou mobile. Placée dans un local technique, elle joue le rôle d’interface de distribution des signaux vidéo, audio et des informations de contrôle vers la tête de caméra, le pupitre de commande RCP,  le réseau d’ordres… C’est à partir du CCU que le signal de la caméra sort pour être envoyé à la suite de la chaîne technique.
Codec Codeur-décodeur : composant électronique ou logiciel assurant l’encodage (la compression) de signaux vidéo ou audio en vue de leur enregistrement ou de leur transmission sur supports numériques. En général, le fonctionnement est réversible et sert à la fois à l’encodage et au décodage.
Par extension, on utilise le terme codec pour désigner un algorithme de compression.
COFDM Abréviation de Coded Orthogonal Frequency Division Multiplex ( multiplexage en fréquences réparties de façon orthogonale). Système de modulation numérique à porteuses multiples, conçu pour la diffusion dans des espaces où il y a de l’écho. Principales utilisations : TNT, DAB, Wifi.
Combing Effet de peigne
défaut de désentrelacement.
Composantes Système de représentation de la couleur obtenu par matriçage:
A partir  des quantités de rouge, de vert et  de bleu analysées par la caméra (RVB), on calcule 3 informations : Y qui représente la luminance (la luminosité des points de l’image), et deux informations de différence de couleur qui correspondent respectivement à (B-Y) et à (R-Y).  Y est calculé en pondérant les informations RVB en fonction de la sensibilité de l’œil pour le rouge , le vert et le bleu. Par exemple, en  haute définition, Y= 0,212R + 0,715V + 0,072B.
On obtient donc en composantes 3 signaux : Y , (B-Y) et (R-Y) . Selon les systèmes, les informations de différences de couleur ont pris différentes appellations. Dans l’histoire de la vidéo, on a parlé successivement de :
-Y i q Dans le système analogique NTSC
-YUV Dans le système analogique PAL puis dans les systèmes Betacam, et Betacam SP, et pour les systèmes en composantes analogiques en général.
-Y Pb Pr Dans les systèmes composantes analogiques (les signaux Pb et Pr sont alors décalés de 350mV pour varier entre 0 et 700mV)
-Y Cb Cr Dans les systèmes composantes numériques.Avantages des systèmes composantes:
En composantes, la couleur et la luminosité sont transmises de façon indépendante : la couleur par (B-Y) et (R-Y)  et la luminosité par Y. Comme l’acuité visuelle humaine est limitée pour les couleurs, on peut limiter le débit en faisant du sous-échantillonnage couleur: Par exemple, en 4:2:0 on net transmet les informations (B-Y) et R-Y) que tous les 4 pixels. D’autre part, Comme Y représente l’image en noir et blanc, on a pu concevoir, au moment du début de la télévision en couleurs, des codages rétrocompatibles avec le noir et blanc: Ce sont les codages composites  NTSC, PAL et  SECAM qui pouvaient être affichés indifféremment sur un téléviseur noir et blanc ou couleurs.
Composite Codage de la vidéo en analogique et en définition standard, permettant de transporter avec un seul signal  une image vidéo en couleurs. En composite, la couleur est transmise grâce à l’adjonction d’une sous-porteuse couleur au signal de luminance.
Les 3 modes de codages qui ont existé sont le NTSC, le PAL et le SECAM.
Compression Opération consistant à réduire le débit d’un signal numérique audio et vidéo pour faciliter son stockage sa transmission ou son traitement.
On parle aussi de codage ou de réduction de débit.
Contribution Signal vidéo ou audio qui contribue à l’élaboration des programmes d’une chaîne de TV. Par exemple: liaison de contribution entre un stade et une chaîne de TV, pour ramener à la chaîne le signal d’un match diffusé en direct.
Cr Composante couleur numérique obtenue en calculant R-Y (Rouge – Luminance)
Cross-Color Défaut sur une image d’origine analogique composite. le cross-color se caractérise par un moiré coloré se produisant sur des zones d’images garnies de transitions fines (petits carreaux noirs et blancs, motifs à lignes très fines…).
DCI Digital Cinema Initiative : Conglomérat formé par les grandes majors d’Hollywood pour définir les standards du cinéma numérique.
DCP Digital Cinema Package : Copie d’exploitation en cinéma numérique standardisée par le DCI.
Un DCP est un ensemble de fichiers destinés à être livrés dans les salles de cinéma; les fichiers médias sont des MXF (un par piste et par bobine) les fichiers de Composition  Playlist (CPL)  indiquent l’ordre de lecture des médias et sont écrits en XML. Les médias doivent être conformes à certaines spécification techniques. (tailles d’image 2K ou 4K, compression JPEG2000 ou MPEG-2, espace colorimétrique XYZ…)
DCT Discreet Cosine Transform (transformée en cosinus discrète) Transformée mathématique qui est à la base de la plupart des algorithmes de réduction de débit en image numérique.  JPEG, DV, MPEG, PRORES, DNxHD s’appuient tous sur cette transformée ou sur des versions proches de cette transformée. Le but de la DCT est de représenter de façon fréquentielle l’information relative à un bloc de pixels. On obtient après transformée un ensemble de coefficients (autant que le nombre de pixels du bloc).  Ces coefficients représentent la quantité d’énergie contenue dans le bloc à différentes fréquences spatiales, c’est à dire à différentes finesses de détail. L’intérêt de la DCT est double : d’une part, sur les images d’origine naturelle il y a  plus d’énergie sur les fréquences basses (détails grossiers) que sur les hautes fréquences (détails fins), la DCT met donc en évidence la redondance statistique du signal. d’autre part, on sait que l’œil humain est moins sensible aux détails fins qu’aux détails grossiers sur l’image. (redondance subjective) Pour faire baisser le débit, on procèdera donc à une requantification et à un seuillage des coefficients de DCT en fonction de la finesse de détail qu’ils représentent.
Définition Nombre de pixels dans une image numérique
Les principales définitions standardisées sont:
Standard Definition:  (SD) 720×576@25i/s  – 720×480@30i/s
High définition: (HD) 1920×1080 et 1280×720
Ultra High définition (UHD) 3840×2160 et 7680×4320
Définition standard Voir SD
Diaphragme 1) Dispositif mécanique placé à l’intérieur d’un objectif, appelé également iris, et composé de lamelles qui en se resserrant ou s’ouvrant, permettent de créer un trou à diamètre variable pour  faire varier la quantité de lumière que l’objectif laisse passer.

2) Nombre d’ouvertures (stop) Valeur numérique gravée sur la bague d’iris d’un objectif, qui correspond au ratio entre le diamètre du trou formé par l’iris et la focale de l’objectif.
Les valeurs standardisées sont :  22 – 16 – 11 – 8- 5,6 -4 -2,8 -2 – 1,4 – 1 plus le nombre est grand, plus l’iris est fermé.  Quand on ferme l’objectif d’un diaphragme (par exemple quand on passe de  5,6 à 8), on laisse passer 2 fois moins de lumière.

Digital Betacam Format d’enregistrement numérique SD sur cassettes ½ pouce proposé par Sony. Traite le signal vidéo en 4:2:2 sur 10 bits et utilise une réduction de débit de type intra-image (DCT) à 100mbits/s. Le Digital Betacam, appelé parfois Beta num, a été longtemps le standard d’enregistrement et d’échange pour la TVSD.
DLP Acronyme de Digital Light Processing. technologie de  vidéoprojection développée par Texas instrument, basée sur l’emploi de circuits intégrés dits DMD. ces circuits sont des matrices de micro-miroirs orientables (un par pixel). Selon l’orientation des micro-miroirs, la lumière de la lampe est réfléchie ou pas vers l’objectif du projecteur. Cette technologie est très utilisée en cinéma numérique.
DNxHD Famille de codecs proposée par Avid pour ses solutions de postproduction. Ce sont des codecs intra-image, basés sur l’utilisation de la DCT.
Les plus utilisés sont : DNxHD 120 (1920×1080 en 4:2:2 à 120 Mbits/s) et DNxHD 185x (1920×1080 en 4:2:2 sur 10 bits à 185mbits/s)
Drop frame Type de time code SMPTE conçu pour les cadences images fractionnelles (29,976 images/s), pour corriger le fait que la cadence d’image n’étant pas un nombre entier, les valeurs de time code ne correspondent pas à la durée réelle de la vidéo. En drop frame 29,976i/s, 2 codes sont omis toutes les minutes sauf toutes les 10 minutes.
Dual link Interface de transport constitué de 2 câbles en parallèle sur lesquels sont  réparties les données.
Par exemple : dual link HD-SDI pour le transport de 1080p50
DV CODEC et système d’enregistrement numérique magnétique sur cassettes 1/4 pouce développé pour succéder au VHS.
Les caractéristiques du CODEC DV sont : taille d’image : SD, 8 bits,: 4:2:0 ou 4:1:1, débit : 25Mbits/s
DVCPRO Codec développé par Panasonic et reprenant la technologie du DV et ses principales caractéristiques. (25 Mbits/s en 8 bits et en 4:1:1).
DVCPRO-50 Codec développé par Panasonic et reprenant la technologie du DV pour une utilisation plus broadcast en définition standard. (50 Mbits/s en 8 bits et en 4:2:2).
DVCPRO-HD Codec développé par Panasonic pour ses premiers caméscopes HD, et reprenant la technologie du DV
Tailles d’image : 1440×1080/25i ou p, 1280×1080/30i ou p, 8 bits en 4:2:2, débit : 100mbits/s
DVD Digital Versatile Disc. Disque optique de même taille qu’un CD Rom, mais d’une capacité de 7 à 30 fois  supérieure, avec un gravage sur une ou deux couches et sur une ou deux faces. Il se destine aussi bien à la vidéo (DVD vidéo) qu’à l’informatique (DVD Rom).
Le DVD vidéo permet de stocker en définition standard 133 minutes de programme en MPeg-2, avec 8 canaux audio et jusqu’à 32 sous-titrages.
DVE Digital Video effect générateur d’effets vidéo intégré dans un mélangeur de production.
EBU/UER European Broadcast Union (appelée aussi UER : Union Européenne de Radiodiffusion) Association de chaînes de TV publiques européennes. Parmi ses activités principales: l’exploitation d’un très large réseau international de contribution (Eurovision), la rédaction de recommandations techniques, et la production du concours de l’Eurovision.
https://www.ebu.ch/home
Echantillonnage L’échantillonnage est la première étape du processus de conversion d’un signal analogique en un signal numérique. Elle consiste à prélever ponctuellement et régulièrement des mesures d’amplitude du signal d’origine. En vidéo la notion de fréquence d’échantillonnage est liée à la notion de définition.
EDL Edit Décision List. Fichier contenant la liste des points de montage mais ne contenant pas les médias.
Cette liste peut être élaborée off-line sur une station basse résolution, en vue d’un conformation automatique dans la haute résolution d’origine.
EFP Electronic Field Production. Une caméra EFP est une caméra reliée à la régie (souvent multicaméras) via son CCU et équipée d’un RCP pour le réglage de la colorimétrie. On est alors dans un type de production “lourde” (car ou studio de production multicaméras).
En opposition, on parle de caméra ENG (Electronic News Gathering) lorsque la caméra n’utilise pas de CCU (le plus souvent la caméra est un caméscope). Dans ce cas, on est dans une logique de production “légère” (actualité ou tournage monocaméra).
ENG voir EFP
Entrelacé Technique d’analyse de l’image vidéo : L’image est analysée dans la caméra en 2 passes successives, appelées trames (field en anglais).
La première trame contient les lignes paires de l’image, la seconde les lignes impaires. Dans le signal vidéo, les 2 trames sont transmises à la suite l’une de l’autre. sur l’écran, les lignes des 2 trames sont entrelacées, pour restituer l’image.
L’entrelacé permet d’obtenir une restitution fluide des mouvements, tout en limitant la cadence d’image à 25 ou 30images/s, afin de limiter le débit.
Entropique (codage) Dans le processus de réduction de débit, opération consistant à réduire la redondance statistique.  Le codage entropique est absolument sans perte.
La redondance statistique est le fait que dans un signal numérique, certains symboles reviennent plus fréquemment que d’autres.  Pour supprimer cette redondance la méthode la plus simple consiste à attribuer des codes courts aux symboles  fréquents et des codes plus longs aux symboles moins fréquents. Cette méthode est appelée le codage à longueur variable. Le langage Morse en est un exemple : 1 point pour la lettre e qui est fréquente dans une page de texte et des codes plus longs pour les lettres moins fréquentes. Cette stratégie de codage à longueur variable (Variable lenght coding ou VLC) est utilisée dans les codecs JPEG, DV, MPEG-1 et 2. Dans les codecs  plus récents comme le H264 ou H265, on utilise une autre stratégie de codage entropique: le CABAC (Context Adaptive Binary Arithmetic Coding), qui consiste à encoder directement la probabilité d’apparition des symboles binaires, en mettant à jour une table de probabilité en fonction du contexte. Comme le CABAC demande un peu plus de puissance lors du décodage, il a été rendu optionnel dans l’encodage H264. Cependant aujourd’hui la plupart des terminaux sont capables de décoder le CABAC. Parmi l’ensemble des outils du H264, le CABAC contribue à diminuer le débit d’environ 10 à 15%.
Le JPEG2000 utilise une version adaptée du CABAC (EBCOT).
EOTF Electronic-Optic transfert function (voir gamma)
Espace colorimétrique Système de représentation des couleurs par des nombres : On utilise en vidéo 3 nombres, par exemple R-V-B ou Y-cb-Cr mais dans certains cas il peut y en avoir plus (quadrichromie par exemple).

On distingue:
Les espaces colorimétriques de référence, qui ne sont pas définis par rapport à des couleurs primaires réelles, mais qui peuvent décrire l’ensemble des couleurs que l’œil humain est capable de voir.
par exemple l’espace XYZ de la CIE (Commission Internationale de l’Eclairage) ou l’ACES
Les espaces colorimétriques Elémentaires qui sont définis à partir d’un rouge, d’un vert et d’un bleu donnés, qui sont liés à une technologie d’affichage, et qui ne peuvent décrire que les couleurs reproductibles par cette technologie d’affichage (l’ensemble de ces couleurs s’appelle le gamut).
Par exemple :  ITU 601, ITU 709, ITU 2020, Adobe RGB, P3…

Etalonnage opération de postproduction consistant à régler les niveaux et les couleurs des images déjà tournées (color grading).
FCC 1) Federal Communications Commission. Organisme régulateur chargé de définir et de faire respecter les normes de diffusion télé et radio aux USA.
2) Four Charaters Code. Metadonnée dans certains formats de fichier indiquant le codec utilisé.
Field Voir entrelacé
Field order ordre des trames (ou dominante de trame) lors d’une analyse en entrelacé.
Il peut être TFF ou BFF.
Flare Littéralement : éblouissement. Effet donné sur une image par une lumière parasite rentrant dans l’objectif.
Forme d’onde Mode de représentation d’un signal vidéo dans lequel on a en abscisse le temps et en ordonnée, la valeur du signal. Ce mode appelé aussi  Waveform (WFM) est le mode de représentation le plus courant pour l’ingénieur de la vision ou pour l’étalonneur pour surveiller les niveaux vidéo.
Frame Littéralement : cadre Dans le contexte de la vidéo, frame = image.
Framerate Cadence d’image :  nombre d’images par seconde
Fréquence d’échantillonnage Nombre d’échantillons pris par seconde pour former un signal numérique.
Gamma Le gamma d’un écran caractérise la façon dont les variation du signal vidéo seront traduites en variation de lumière sur l’écran. (EOTF ou electronic-Optical transfert function)
Pour des raisons historiques et pratiques, cette courbe n’est pas linéaire. En haute définition, le gamma de l’écran est de 2,4 c’est à dire que sa luminosité varie selon  une courbe du type L = E’2,4 (avec L =  luminosité sur l’écran et E’= signal vidéo)
Afin d’avoir une restitution linéaire de l’échelle des gris sur l’écran, on introduit dans la caméra un gamma inverse du type E’=L0,45.  L représentant ici la luminosité de la scène filmée. (OETF ou Opto-Electronic transfert Function)
En HDR, comme la dynamique de l’image est plus grande, on est amenés à utiliser d’autres courbes OETF et EOTF : les courbes PQ (Perceptual Quantizer) et HLG (Hybrid Log Gamma).
GAMUT Ensemble des couleurs reproductibles, par un système de synthèse couleur. Limites en RVB et en YUV des valeurs de signal tolérées pour rester dans l’espace colorimétrique.
GOP Acronyme de Group Of Pictures.
En compression MPEG, groupe d’images qui sont comparées les unes aux autres pour faire de la compression Inter-Image. Un GOP peut contenir des images I (codées indépendamment), P (prédites à partir d’une image précédente) et B (interpolées à partir d’images qui l’encadrent). Le GOP  souvent employé en MPEG-2 est du type : IBBPBBPBBPBBI….
Dans ce cas il y a une image I toutes les 12 images, on dit que c’est un GOP de 12  (N=12). D’autre part, Il y a une image P toutes les 3 images (M=3). Enfin, ce GOP se termine par 2 images B, qui ont besoin de l’image I du GOP suivant pour être décodées : c’est un GOP ouvert. Un GOP fermé se termine toujours par une image de type P qui n’a pas besoin de la première image du GOP suivant pour être décodée. En MPEG, quand on fait de la compression Intra-image, il n’y a que des images I, on dit que c’est un GOP de 1 (N=1 et M=1).
GUI Graphical User Interface : Interface graphique
H.323 Protocole de transmission  proposé par l’ITU, pour la mise en place de visioconférence.
H264 Voir MPEG-4
H265 voir HEVC
HD Haute Définition. Définition d’image d’au moins 1280×720 (voir 720p) ou de 1920×1080 (voir ITU-R BT709)
HDCAM Format d’enregistrement HD sur cassette 1/2 pouces de la famille Betacam proposé par Sony.
Accepte les standards d’image 1080i et 1080/24Psf avec 1440 points par ligne (au lieu des 1920 théoriques)
Met en œuvre un sous échantillonnage de la chrominance avant la compression, pour réduire sa résolution au tiers de celle de la luminance (3:1:1). La durée maximale d’enregistrement est de 124 minutes sur les grandes cassettes et de 40 minutes sur les petites cassettes acceptées par les caméscopes (ces durées sont 25% plus élevées en mode 24P). Traite 4 pistes audio.
HDCAM SR Format d’enregistrement de très haute qualité sur cassettes 1/2 pouce et sur cartes mémoires (SR memory), proposé par Sony pour le mastering et le cinéma numérique.
Le HDCAM SR permet d’atteindre une qualité sans pertes visuelles avec l’utilisation de codecs intra-image MPEG-4 partie 2 Simple Studio Profile en intra image à des débits pouvant aller jusqu’à 880mbits/s.
Il offre le support du 720p, du 1080p50ou 60, du 2K du 4:4:4 et de la stéréoscopie.
HDMI High Definition Multimedia Interface
Norme d’interface audio/vidéo numérique pour le grand public
HDR High Dynamic Range
On peut définir le HDR comme étant la possibilité de capturer, de traiter, de distribuer et d’afficher des images vidéo à grande plage dynamique. Par opposition on appelle Standard Dynamic range (SDR) les systèmes non HDR.
La plage dynamique est l’ensemble des valeurs de luminosité que l’on est capable de restituer sur une image, du noir le plus sombre, au blanc le plus lumineux. Pour les créatifs, cette dynamique représente la palette de luminosité dont ils vont pouvoir se servir pour créer des images plus claires/sombres et/ou plus contrastées.
HD-SDI Acronyme de High Definition Serial Digital Interface.
Interface de transport de la famille SDI. Existe sur câble coaxial (connecteur BNC) ou sur fibre monomode (connecteur LC).
Permet le transport de vidéo numérique en 1920×1080 jusqu’à 30 images/s ou en 1280×720, jusqu’à 60 images /s, en non compressé, 4:2:2 sur 10 bits, ainsi que 16 pistes audio (audio Embedded) à 1,485 Gbits/s.
Voir aussi : HD-SDI, 3G-SDI, 6G-SDI,12G-SDI, dual link et quad link.
HEVC Acronyme de High Efficiency Video Coding
Norme de compression pour la vidéo et les images fixes mise au point par l’ITU et MPEG. Le HEVC s’appelle aussi MPEG-H partie 2 et H265.
HEVC reprend les principes du MPEG-4 AVC en améliorant certains outils et en en ajoutant d’autres.
On considère qu’à même qualité d’image, une vidéo encodée en H265 aura un débit divisé par 2 par rapport à la même vidéo encodée en H264. En fait le gain de compression par rapport au H264 dépend de plusieurs facteurs : Il est plus important pour les vidéos en progressif et pour les grandes tailles d’images. La puissance de calcul pour l’encodage en HEVC multipliée par 10 environ par rapport au H264. Il y a néanmoins dans HEVC la possibilité de paralléliser les calculs. HEVC est la norme de compression utilisée pour l’UHD.
HLS Voir streaming adaptatif
i  (Interlaced)  voir entrelacé
IBC 1)International Broadcasting Convention : salon professionnel de l’audiovisuel se tenant chaque année en septembre à Amsterdam.
2) International Broadcast Center : Dans une infrastructure technique pour la couverture TV d’événements internationaux type jeux olympiques par exemple, l’IBC est  le lieu où convergent tous les signaux des différents sites pour leur distribution aux chaîne de TV ayant-droits.
I-Frame Dans un processus de compression, image compressée en utilisant ses propres informations, sans être comparées à d’autres images.
IMX Interopérable Media eXchange. Codec intra-image de la famille MPEG-2 utilisé en production SD.
4:2:2 sur 8 bits, débits : 30, 40 et 50 Mbits/s.
incrustation Opération qui consiste à intégrer un objet détouré sur un fond d’image.
Interlaced Voir entrelacé
Iris Voir Diaphragme
ITU International Telecomunication Union En français : UIT pour Union Internationale des Télécommunications
Agence des Nations Unies spécialisée dans les télécommunications. Basée à Genève, l’ITU s’occupe de coordination technique pour favoriser les télécommunications internationales. l’ITU édicte des recommandations techniques  dans de nombreux domaines (téléphonie, réseau informatiques, occupation du spectre de fréquences, radio, TV…),  dans le but de favoriser les échanges internationaux. Ces recommandations font autorité dans le monde entier.
Les recommandations ITU pour la télévision s’écrivent ITU-R BT XXX :  R correspond à radiodiffusion et BT à broadcast Television
Dans le domaine de la vidéo, les recommandations ITU les plus importantes ont été:
-ITU-R BT601 : vidéo numérique en définition standard
-ITU-R BT709 : vidéo numérique en haute définition
-ITU-R BT2020 : vidéo numérique en ultra haute définition
-ITU-R BT2100 : vidéo en HDR
Sans oublier le travail conjoint avec l’ISO sur la compression numérique:
-H261 (MPEG-1)
-H262 (MPEG-2)
-H263 (compression vidéo pour la visioconférence)
-H264 (MPEG-4 AVC)
-H265 (HEVC)site : https://www.itu.int/fr/Pages/default.aspx
ITU-R BT2020 Recommandation internationale définissant 2 tailles d’image  pour l’ultra haute définition.
-UHD1 : 3840×2160
-UHD2 : 7680×4320
Les autres éléments compris dans ITU-R BT2020 sont:
-L’abandon de l’entrelacé (utilisation du progressif seulement)
-La possibilité d’utiliser les cadences d’images : 24, 25, 30, 50, 60, 100 et 120 images/secondes
-La définition d’un espace colorimétrique large  Wide Color gamut (WCG) avec des primaires RVB monochromatiques, des équations de calcul des composantes YCb et Cr et deux modes de calcul différents du gamma : non constant et constant
Le terme rec 2020 est parfois utilisé  pour parler de cet espace colorimétrique
ITU-R BT601 Voir SD
ITU-R BT709 Recommandation internationale définissant une taille d’image unique pour la haute définition de 1920×1080, toujours en 16/9 et pouvant être déclinée en entrelacé ou en progressif à  : 24, 25 30,50, 60 images/seconde. on parle généralement de full HD.
ITU-R BT709 définit aussi un espace colorimétrique différent de celui de  la SD: Des primaires RVB de synthèse, un blanc de référence (D65) et des équations de calcul des composantes Y, Cb, Cr. Le terme rec 709 est parfois utilisé pour parler de cet espace colorimétrique ou des caractéristiques que doivent avoir les écrans d’étalonnage pour la HD.
jerkiness stroboscopie
JPEG Acronyme de Joint Picture Expert Group. Codec et formats de fichier pour les ‘images fixes. Utilise la DCT. (Voir DCT)
JPEG2000 Norme de compression d’images fixes basée sur l’utilisation d’ondelettes. Le JPEG2000 qui permet d’atteindre de très hautes qualités d’image (voire du losseless) est utilisé par le cinéma numérique et en archivage.
Kelvin voir température de couleur
KLV Structure élémentaire des données dans un fichier MXF:
K (Key) spécifie le type de donnée transportée.
L (Lenght) spécifie la longueur en nombre d’octets de la donnée transportée.
V (Value) est la donnée elle-même.
Knee Mécanisme de compression des blancs dans une caméra vidéo pour faire sortir des détails dans les hautes lumières.
Letter-box Procédé permettant d’afficher une image d’aspect ratio large (par exemple cinéma ou télé 16/9) sur un écran plus étroit (télé 4/3)/ La taille de l’image est réduite de manière à s’inscrire en totalité (ou presque) entre deux bandeaux noirs en haut et en bas d’image.
Level Niveau:
Les standards MPEG ont été conçus comme des boîtes à outils utilisables pour des applications très différentes.
Dans chaque standard MPEG, on définit des sous-ensembles pour des applications plus précises. Ces sous-ensembles sont définis par un profil et un niveau.
Le niveau définit la complexité maximum de l’encodage; Il détermine en général une taille et une fréquence-image maximum.
Le profil définit les outils utilisables parmi tous ceux du standard MPEG.
Exemples:
MPEG-2 MainProfile@Main Level
MPEG-4 AVC [email protected]
HEVC Main10Profile@Level 5.2
Lossy Mode de compression avec pertes. (plus ou moins perceptibles)
LSB Least Significant Bit. Dans nombre binaire, le LSB est le bit de poids le moins élevé, c’est-à-dire celui qui représente la valeur la moins importante. C’est celui qui est à droite.
On parle aussi de bit de poids faible.
LTC Abréviation de Longitudinal Time Code. Code temporel enregistré sur les magnétoscopes sous forme d’une piste longitudinale (signal audio), pour pouvoir être lu en avance rapide ou en rembobinage.
Luma Voir luminance
Luminance 1) En vidéo, signal noté Y représentant la luminosité des points de l’image.  (luma)
2) en photométrie : unité de mesure de l’éclat apparent d’un objet. Unité :  candela/m2 ou nit
Lux Unité de mesure de l’éclairement d’un objet. Quelques ordres de grandeur : entre 125 et 500lux pour un plateau télé, entre 100 et 200 lux pour un appartement et plus 50000 lux pour une journée ensoleillée à midi.
Macrobloc En compression MPEG-2 et MPEG-4, le macrobloc est un bloc de 16 pixels par 16 pixels. Il représente l’unité de traitement élémentaire pour le calcul des prédictions.
MAM Voir Media Asset Management
Media Asset Management (MAM) Littéralement, gestion des médias numériques. Ensemble des outils de gestion (matériels et logiciels) permettant la gestion des fichiers  de toutes natures (textes, photos, vidéos, sons) et de tous formats stockés sur un support quelconque relié à un réseau informatique. Les principales fonctions d’un MAM sont:
– L’ingest ou acquisition : la fabrication d’un fichier à partir d’un média
– L’indexation : renseigner des métadonnées descriptives sur les médias afin de constituer une base de données pour leur exploitation.
– La recherche
– Le HSM (Hierarchical Storage Management) C’est la gestion du stockage physique des médias en fonction de leur actualité : Les médias “chauds” les plus demandé à l’instant t seront stockés sur les supports les plus rapidement accessibles qui sont les plus chers (mémoire vive, disques durs), tandis que les médias “froids” qui sont moins souvent utilisés seront migrés automatiquement vers des supports moins chers et moins rapidement accessibles (LTO).
– L’édition (montage des médias)
– Les transcodages
– La gestion des droits
– L’administration
Media Composer Logiciel phare pour le montage, de la société Avid.
Métadonnée Donnée additionnelle au médias, qui transporte des informations descriptives ou techniques.
MKV Matrovska
Format de fichier audiovisuel issu du monde du logiciel libre.
MP4 Format de fichier audiovisuel, défini dans la partie 14 de la norme MPEG-4 et reprenant la technologie QuickTime d’Apple.
MP4  n’est pas limité à l’encapsulation de vidéo compressées en MPEG-4, bien au contraire. Il peut encapsuler un très grand nombre de codecs.
MPEG Acronyme de Moving Picture Experts Group
Groupe de travail de l’ISO chargé de la mise au point et de la standardisation des Codecs vidéo et audio.
A développé en collaboration avec l’ITU les standards MPEG-1, MPEG-2, MPEG-4 et HEVC.
MPEG-1 Standard de compression vidé pour des applications de multimédia. ne s’applique qu’à une petite taille d’image (352×288) avec un débit final de 1,5Mbits/s pour permettre la lecture de vidéo à partir d’un CD ROM.
MPEG-2 2ème standard MPEG de codage de la vidéo et de l’audio associé, répondant aux besoins des applications de diffusion, de distribution et de production broadcast (1994).
MPEG-2 a permis les premières diffusions en télévision numérique et a été universellement utilisé en compression  pour la diffusion en TVSD. Ce standard est divisé en plusieurs parties, en voici les principales :
MPEG-2 partie 1 (System)
Couche d’encapsulation qui définit la structure d’un train de données pour le transport et la diffusion (Transport Stream).  cette partie de la norme MPEG-2 n’a rien à voir avec de la compression, elle définit comment encapsuler les données audio et sons sous forme de paquets de (188 octets en général)  pour les transporter. C’est la couche de transport la plus communément  utilisée en diffusion TNT, Satellite, TV par câble, IPTV…  Les données transportées peuvent avoir été compressées avec d’autres codecs plus récents comme H264 par exemple.
MPEG-2 partie 2 (vidéo)
Compression vidéo  pour la diffusion ou même la production en SD ou en HD en 4:2:0 ou en 4:2:2 sur 8 bits, en compression inter-image ou même Intra-image.
principales utilisations sont :
-Diffusion TV en définition Standard 4 à 5 Mbits/s en 4:2:0 Long GOP
-Compression pour le DVD vidéo : 4 à 5 Mbits/s en 4:2:0 long GOP
-Production en TVSD 4:2:2 intra-image (voir IMX)
-Production et livraison des PAD HD en France :  50 Mbits/s en 4:2:2 GOP de 12
MPEG-2 partie 3
Compression audio
MPEG-2 partie 7 Advanced Audio Coding (AAC)
Compression audio

Il n’existe pas de MPEG-3, la haute définition ayant été intégrée à posteriori au MPEG-2.

MPEG-4 3 ème standard MPEG pour la compression  et la diffusion de contenus.
Par facilité de langage, on utilise souvent le terme MPEG-4 pour désigner la compression H264, qui n’est en fait que la 10 ème partie de la norme MPEG-4.
Voici les principales parties de la norme MPEG-4:
MPEG-4 partie 1 : system
Couche de transport prévue pour permettre l’interactivité, mais pratiquement pas utilisée (on utilise généralement la couche de transport du MPEG-2)MPEG-4 partie 2 : Visual
Première technologie MPEG-4 de compression vidéo, utilisée dans le système Sony HDCAM-SR
Peu utilisée en dehors du HDCAMSR.MPEG-4 partie 10 : Advanced Video Coding (AVC) ou H264 (2003)
C’est la norme de compression la plus universellement utilisée aujourd’hui.
Comme le MPEG-2 et plus tard le HEVC, MPEG-4 AVC a été développé conjointement par MPEG et ITU.  C’est la raison pour laquelle il y a plusieurs noms pour désigner cette norme : MPEG-4 AVC chez MPEG et H264 chez ITU.H264 est plus efficace que MPEG-2 : à qualité d’image égale, une vidéo encodée en H264 aura un débit divisé par environ 2,5 par rapport à la même vidéo encodée en MPEG-2. L’encodage en H264 nécessite environ 4 fois plus de puissance de calcul qu’en MPEG-2.
On peut considérer le H264 comme une amélioration de la compression MPEG-2  les principes généraux restent les mêmes, mais de nombreux outils ont été améliorés et de nouveaux outils ont été introduits:
-Amélioration de l’estimation de mouvement avec subdivision possible des macroblocs
-Prédiction intra image qui consiste à prédire l’état d’un bloc de pixels à partir des blocs adjacents sur la même image
-CABAC (voir codage entropique)
-Filtre de déblocage pour lisser l’effet de bloc dû à la compression
H264 permet de gérer la compression en 8 bits, 10 et 12 bits (alors que MPEG-2 ne fait que du 8 bits), il supporte le 4:2:0,  le 4:2:2 et le 4:4:4, sur des tailles d’images pouvant aller jusqu’à 4096×2160. H264 permet de faire de la compression en inter-image et en intra-image.
Les applications du H264 sont très nombreuses et diverses. En voici quelques unes :
-Diffusion TV en HD en long GOP 4:2:0 sur 8 bits environ 4,5Mbits/s
-Blu-Ray vidéo  HD en long GOP 4:2:0 sur 8 bits débit max : 20Mbits/s
-Production en HD en 4:2:2 sur 10 bits intra-image à 100Mbits/s (AVCINTRA 100 de Panasonic)
MPEG-4 partie 14
Définit un format de fichier (MP4) basé sur la technologie QuickTime d’Apple.

Il n’exite pas de standard MPEG-5, chez MPEG, le standard suivant MPEG-4 s’appelle MPEG-H (voir HEVC)

MPEG-7 Standard d’indexation des contenus audiovisuels  dont l’objectif est d’autoriser l’identification d’un document audiovisuel par une description de son contenu.
MPEG-DASH Voir streaming adaptatif
MSB Most Significant Bit. Dans nombre binaire, le MSB est le bit de poids le plus élevé, c’est-à-dire celui qui représente la valeur la plus importante. C’est celui qui est à gauche.
On parle aussi de bit de poids fort.
Multicast Dans un réseau informatique, mode de transmission des paquets dans lequel une machine émet un paquet qui sera reçu par plusieurs machines abonnées à ce flux.
MXF Format de fichier audiovisuel créé pour des applications de production/postproduction et archivage, en vue du remplacement de la cassette (dématérialisation). MXF possède un grand nombre de fonctionnalités avancées,  comme des jeux de métadonnées évoluées, la gestion des références externes, la gestion des playlists, la possibilité d’avoir plusieurs versions d’un média, ou de mémoriser l’historique d’un média. MXF peut encapsuler tout type de codec.
NAB National Association of Broadcaster
NTSC Acronyme de National Television System Committee
Norme de codage de la vidéo analogique couleur en un seul signal dit composite, qui a été utilisée pour la diffusion en analogique aux USA en SD  à 29,976 images/s.
Par abus de langage, on utilise le terme NTSC pour désigner la vidéo à 29,976 images/s.
OCP Voir RCP
Octet ensemble de 8 bits formant une unité de traitement d’information dans les systèmes informatiques  abréviation : B (Byte)
Octet Ensemble de 8 bits traités ensemble pour coder une information numérique. L’octet est l’unité de base servant à exprimer des volumes de stockage en informatique
notation : o ou B (Byte en anglais)
OETF Opto-Electronic transfert Function (voir Gamma)
Operational Pattern Schéma fonctionnel : catégorie de MXF
Profil définissant un type de fichier MXF. Les plus usités sont : OP1a, OP1b,OPAtom.
OTT Over The Top
Services de vidéo fournis directement par le réseau Internet, sans passer par une Set-Top Box. Par exemple : Netflix, Hulu, Amazon prime, YouTube…
P2 Professional Plug-in
Système d’enregistrement sur cartes mémoires proposé par Panasonic.
Les cartes P2 sont au format PCMCIA et les codecs supportés sont ceux de la famille AVCINTA et AVCultra, ainsi que les anciens codecs DVCPRO.
PAL Abréviation de Phase Alternate Line. Norme allemande  de codage de la vidéo analogique couleur en un seul signal dit composite, qui a été utilisée pour la diffusion en analogique en Europe (sauf en France) en SD  à 25 images/s.
Par abus de langage, on utilise le terme PAL pour désigner la vidéo à 25 images/s.
P-Frame Image Prédite. Dans un mécanisme de compression inter-image, désigne des images qui sont encodées à partir d’images  précédentes dans l’ordre d’affichage.
Pilar box Barres noires verticales à gauche et à droite de l’écran pour inclure une image moins large que l’écran (par exemple : image 4/3 affichée en pilar box sur un écran 16/9ème).
Pixel Abréviation de Picture Element
Surface élémentaire d’une image numérique. Une image numérique est une mosaïque de pixels.
Profile profil:
Les standards MPEG ont été conçus comme des boîtes à outils utilisables pour des applications très différentes.
Dans chaque standard MPEG, on définit des sous-ensembles pour des applications plus précises. Ces sous-ensembles sont définis par un profil et un niveau.
Le niveau définit la complexité maximum de l’encodage; Il détermine en général une taille et une fréquence-image maximum.
Le profil définit les outils utilisables parmi tous ceux du standard MPEG.
Exemples:
MPEG-2 MainProfile@Main Level
MPEG-4 AVC [email protected]
HEVC Main10Profile@Level 5.2
Profondeur de champ Zone de netteté dans une image. Elle s’étend du premier plan net (proximum) au dernier plan net (remotum). En général par rapport à la distance de mise au point, la profondeur de champ s’étend 2/3 en arrière et 1/3 en avant.
La profondeur de champ dépend de plusieurs facteurs:
-Elle augmente avec le nombre d’ouverture(voir diaphragme)
-Elle diminue quand la focale augmente
-Elle augmente quand la distance de mise au point augmente.
-Elle augmente avec le diamètre du cercle de confusion.
Progressif Mode d’analyse de l’image vidéo en une seule passe, chaque ligne étant sous la ligne précédente.
En progressif, en dessous de 50 images/s les mouvements risquent d’être saccadés. C’est la raison pour laquelle on utilise souvent en télévision l’entrelacé.
Psf Progressive Segmented Frame : Signal vidéo HD en progressif ayant la même syntaxe qu’en entrelacé.
On transmet d’abord les 540 lignes de rang impair puis les 540 lignes de rang pair. La structure Psf ainsi formée peut alors être traitée et enregistrée par des équipements conçus à l’origine pour gérer un format entrelacé (magnétoscopes, mélangeurs, systèmes d’effets…) Le Psf a permis aux constructeur d’éviter de développe 2 gammes de matériels, une pour l’entrelacé, l’autre pour le progressif.  Par exemple, les magnétoscopes HDCAM de Sony peuvent fonctionner soit en entrelacé soit en Psf.
Un signal vidéo en Psf est bien un signal vidéo en progressif : bien que les 1080 lignes aient été divisées en 2 séries de 540 lignes, les lignes de rang pair et de rang impair proviennent du même instant d’analyse par le capteur de la caméra.
Quad link Interface de transport constitué de 4 câbles en parallèle sur lesquels sont  réparties les données.
Par exemple : quad link 3G-SDI pour le transport de 2160p50
Quantification 2ème étape après l’échantillonnage, du processus de numérisation. La quantification consiste à exprimer les valeurs échantillonnées sous forme de nombres  binaires constitués d’une certaine quantité de bits. (le plus souvent en vidéo : 8 bits, 10 bits ou 12 bits).  La quantification s’assimile à un calcul d’arrondi; plus le nombre de bits est important, plus le nombre binaire peut coder avec précision la valeur échantillonnée.
En vidéo, la quantification influence le nombre de couleurs différentes que l’image peut contenir : c’est ce que l’on appelle la profondeur de couleurs.
-En RVB sur 8 bits : environ 16 millions de couleurs.
-En RVB sur 10 bits : environ 1 milliard de couleurs.
La quantification influe aussi sur le niveau de bruit de fond.
QuickTime Nom générique donné à tous les composants logiciels de traitement et d’affichage de la vidéo dans l’univers Apple.
Par simplicité, on appelle souvent QuickTime le format de fichier audiovisuel d’Apple qui s’appelle en fait Séquence QuickTime extension .MOV).
RAID Acronyme de Redondant Array of Independant Disk . Architecture de stockage fondée sur l’utilisation de plusieurs disques vus comme un seul disque par le système d’exploitation. Le but des systèmes RAID est d’augmenter les performances en terme de capacité, vitesse de lecture et d’écriture et/ou de fiabilité.
Raw Brut, non traité
Les caméras enregistrant en RAW enregistrent directement les données du capteur, sans traitement, sans débayerisation ou application d’une courbe de transfert par exemple.
L’avantage est de donner un maximum de latitude de traitement en postproduction, l’inconvénient est que les fichiers RAW sont très volumineux. c’est la raison pour laquelle les workflows en RAW sont plutôt réservés pour les programmes de fiction.
Il existe autant de type de RAW que de types de caméras.
RCP Remote control panel
pupitre de télécommande de caméra exploité par l’ingénieur de la vision. Il comporte les fonctions principales pour le contrôle de l’image : iris, niveau de noir, niveaux de noirs partiels, gains partiels, niveau de détail etc.…  Il est parfois appelé OCP (Operational Control Panel).
rec 2020 Voir ITU-R BT2020
rec 601 Voir SD
rec 709 Voir ITU BT-rec 709
rec 709 Voir ITU-R BT709
Résolution Dans les dispositifs informatiques d’impression ou d’affichage, nombre de pixels affichés ou imprimés par unité de longueur. Est exprimée généralement en points par pouce  Dots Per Inch ou DPI).  Sur un moniteur vidéo ou sur un écran de télévision, l’image s’affiche sur toute la surface de l’écran quelle que soit sa taille et quelque soit la définition de l’image; il n’y a donc pas réellement de notion de résolution en vidéo traditionnelle.
Le terme résolution est souvent utilisé par abus de langage pour parler de la définition.
SAN Abréviation de Storage Area Network. Architecture de  réseau et de stockage dans laquelle un  réseau local haut débit est dédié au stockage des médias.
Saturation Caractéristique d’une couleur indiquant son degré de pureté.  Si une couleur est grise, blanche ou noire, sa saturation est nulle. Si une couleur est  pure c’est à dire monochromatique, sa saturation est maximale.
Les couleurs fluo, vives ou profondes ont des saturations fortes. Les couleurs pastel ou grisâtres ont des  saturations faibles.
SD Standard Définition
Taille d’image définie par la recommandation internationale ITU-R BT601
720×576 à 25images/seconde
720×486 à 30 images/secondes (ramené à 720×480 le plus souvent après compression)
Utilisation de l’entrelacé ou du progressif
ITU-R BT601 définit aussi un espace colorimétrique c’est à dire des primaires RVB de synthèse, un blanc de référence(D65) et des équations de calcul des composantes Y, Cb, Cr.
SDI Acronyme de Serial Digital Interface.
Interface de transport sur câble coaxial (connecteur BNC) ou sur fibre monomode (connecteur LC)
Permet le transport de vidéo numérique en SD en non compressé, 4:2:2 sur 10 bits, ainsi que 16 pistes audio (audio Embedded) à 270Mbits/s.
Voir aussi : HD-SDI, 3G-SDI, 6G-SDI,12G-SDI, dual Link et quad Link.
SDTI  Serial Digital Transport Interface
Déclinaison de l’interface SDI, pour le transport de données compressées.
Secam Acronyme de Séquentiel A Mémoire. Norme française  de codage de la vidéo analogique couleur en un seul signal dit composite, qui a été utilisée pour la diffusion en analogique  en SD  à 25 images/s. Le SECAM a été utilisé pour la diffusion en France ainsi qu’en Europe de l’Est, en ex-URSS et dans certains pays d’Afrique.
La diffusion en SECAM a été arrêtée en France en 2009, remplacée par la Télévision Terrestre Numérique (TNT).
Set-Top Box (STB) Boîtier décodeur raccordé au poste de télévision et fourni par un fournisseur de services (télévision par satellite, par câble, par ADSL ou par fibre).
Smear Défaut  amené par les premières générations capteurs CCD et  qui se caractérise par une barre verticale à l’aplomb d’un point lumineux. Ce défaut est dû à une surcharge d’un photosite qui recevant trop de lumière, déverse son surplus de charges électriques dans les cellules voisines.
SMPTE Society of Motion picture sand Television Engineers
Association principalement américaine de standardisation qui existe depuis 1916 et a déposé plus de 400 standards.
Citons parmi ces standards :
-Le time Code
-Le 720p
-Le cinéma numérique
-Les interfaces SDI
-Le MXF
Streaming Lecture d’un média situé sur un serveur,  à travers réseau et sans téléchargement préalable.
Streaming adaptatif Techniques de streaming utilisées en OTT et permettant de faire varier le débit de la vidéo et de l’audio en fonction de la disponibilité du réseau en temps réel. Les médias sont placés dans le serveurs sous forme de collections de segments courts (souvent 2 secondes). Chaque segment est disponible encodé à plusieurs débits. Le client va requérir les segments les uns après les autres, et choisira à chaque fois le débit en fonction du temps qu’il a mis à recevoir le segment précédent. Les principales technologies de streaming adaptatif sont :
-MPEG-DASH (Dynamic Adaptive Streaming over HTTP)
-HLS (Apple)
-Microsoft Smooth Streaming
Suppression Intervalle de temps dans un signal vidéo pendant lequel on ne transmet pas d’information visuelles.
Entre chaque ligne il y a un intervalle nommé suppression horizontale.
A la fin de chaque trame il y a un intervalle de temps nommé suppression verticale qui est plus long (environ une vingtaine de ligne selon les standards).en anglais on parle de Blanking.
TCP/IP Acronymes  de Transfert (ou Transmission) Control Protocol et de Internet Protocol. Ensemble de protocoles généralement utilisés sur l’Internet, avec lesquels chaque paquet échangé est acquitté avant l’envoi du paquet suivant.
Par extension, on désigne par TCP/IP la version simplifiée du modèle OSI qui est universellement utilisée.
Température de couleur Grandeur permettant de caractériser la nature d’une lumière blanche notamment l’équilibre entre la quantité de lumière rouge et bleue qu’elle contient.
La température de couleur s’exprime en  Kelvin, (zéro Kelvin correspond à –273° Celsius).  Par exemple : 1800 K pour une bougie, 3200 K pour une lampe au tungstène, 5600 K Pour la lumière du jour moyenne, 6500 K  pur le blanc de référence en vidéo. C’est la température à laquelle il faudrait chauffer morceau de tungstène (le corps noir) pour qu’il émette la même qualité de lumière que la source lumineuse que l’on mesure. Plus une source lumineuse est bleutée, plus elle a une température de couleur élevée. Attention, la température de couleur fonctionne à  l’inverse de la notion de chaleur au sens psychologique du terme : Les couleurs rouges sont considérées comme “chaudes” et les couleurs bleues comme “froides”.
TFF (top field first) ordre d’analyse de l’image en entrelacé: la trame du haut en premier. Cet ordre est celui utilisé en diffusion en France.
TIFF Tag Image File Format. Système basé sur le marquage développé par Aldus Corporation pour le stockage et l’échange d’images ligne par ligne. Pour la norme OMFI, TIFF
Time code Code Temporel. Métadonnée de repérage temporel  en Heures Minutes Secondes Images (HH:MM:SS:ii). Permet le repérage dans un média, et son montage.
Sur un magnétoscope, le time code était enregistré sur une piste longitudinale (LTC) et sur la piste Vidéo (VITC).
Timeline Représentation graphique du déroulement temporel d’une séquence dans un éditeur de montage.
Trame Voir entrelacé
Transport Stream Flux de Transport
Syntaxe de flux numériques utilisée dans les réseaux de diffusion. Les médias sont répartis dans des “paquets TS” de 188 octets, chaque paquet commençant par un PID (packet Identifier). Un flux de transport peut multiplexer plusieurs programmes  pour diffuser plusieurs chaînes (“services”) sur un seul émetteur. Les paquets peuvent contenir de la vidéo, de l’audio, des sous-titres ou d’autres types de données. L’audio et la vidéo peuvent être compressés avec différents codecs. A intervalles réguliers des paquets de métadonnées appelés “tables” sont envoyés par exemple pour le guide électronique des programmes (EPG), ou pour des métadonnées techniques de gestion du réseau de diffusion.  L’utilisation de paquets courts permet de faire du Forward error Correction (FEC), pour prévenir les pertes de données à la réception. La syntaxe du Transport stream est définie dans la norme MPEG-2 partie 1.
Par extension, les fichiers portant ‘extension .TS sont des fichiers constitués de paquets TS.
(Voir aussi : MPEG-2)
TS Voir transport stream
UDP Abréviation de User Datagram Protocol. Protocole de transmission de données sans acquittement utilisé en télévision sur IP et en production live sur IP. Est utilisé en général conjointement avec le protocole RTP (Real Time Protocol). Moins fiable que le TCP/IP, mais plus rapide et efficace pour les flux temps réel  comme la vidéo et l’audio.
UER Voir EBU
UHD Ultra Haute Définition. Tailles d’image définies dans la recommandation internationale ITU-R BT2020 : 3840×2160 (UHD1) et 7680×4320 (UHD2).
Voir ITU-R BT2020
UIT Voir ITU
VBR Variable Bitrate : mode de compression dans lequel le débit peut varier. Permet de gagner de la place sur un fichier sur les séquences faciles à encoder (peu de détails et de mouvements) pour mettre plus de débit sur les séquences complexes à encoder, afin d’assurer une qualité constante pendant toute la durée de la vidéo.
Vecteur mouvement En compression inter-image, codage du déplacement d’un bloc de pixels entre l’image encodée et l’image de référence.
Vecteurscope Mode d’affichage du signal vidéo dans lequel on représente uniquement les signaux couleurs. Ce mode utilise en abscisse Cb et en ordonnée Cr. Ce mode d’affichage était très utilisé du temps de la vidéo composite. En numérique il a perdu de son intérêt; néanmoins pour l’ingénieur de la vision, il permet de vérifier sur la caméra les balances des blancs et des noirs sont correctes. Le mode vecteurscope reste la seule méthode pour vérifier le matriçage sur une mire de barres.
VITC Abréviation de Vertical Intervalle Time Code. Code temporel placé dans les lignes de suppression verticale du signal vidéo. Le VITC était enregistré sur les magnétoscopes pour pouvoir être lu en arrêt sur image.
Watchfolder Dossier qui déclenche une action automatiquement  à la réception d’un fichier.
Waveform Voir forme d’onde
White Balance Equilibrage des blancs (souvent traduit par “balance des blancs”). Opération consistant à régler les gains RVB d’une caméra afin qu’un objet filmé blanc soit rendu blanc à l’image. Sur une caméra, les principales possibilités sont :
-PRESET : les gains RVB sont réglés en usine pour la restitution correcte des blancs pour un éclairage à une température de couleur standard (en général 3200K).
-AUTO WHITE : L’opérateur présente une feuille de papier blanche devant la caméra, dans la lumière de la scène à filmer; la caméra ajuste automatiquement les gains RVB pour une restitution correcte des blancs dans la lumière de la scène. les gains sont alors mémorisés. (Il y a en général 2 mémoires possibles notées A et B).
-AUTO WHITE TRACKING : les gains sont ajustés en temps réel par la caméra pour s’adapter en temps réel aux changements de condition d’éclairage.
White point Point blanc
Blanc de référence dans un système colorimétrique. Par exemple en vidéo, le blanc de référence est le D65 avec une température de couleur de 6500 Kelvin.
Wide Screen Signaling WSS Métadonnée placée à l’intérieur d’un signal vidéo SD lors de la diffusion pour transporter les informations de gestion de l’aspect ratio (voir AFD). Le WSS est situé sur la première moitié de la première ligne visible du signal vidéo (ligne23), sous forme d’impulsions indiquant l’aspect ratio.
Wrapper en français : emballage ou enrubannage.  Terme désignant le conteneur (format de fichier ou de flux) utilisé pour encapsuler les médias et les métadonnées pour leur  exploitation.
XAVC Famille de codecs pour la production et la postproduction proposée par Sony. Ces codecs sont conformes à la norme H264.
XDCAM Système d’enregistrement sur disque optique et sur carte mémoire proposé par Sony.
Les codecs utilisables en XDCAM sont : DV, IMX, MPEG-2 long GOP et XAVC.
L’appellation XDCAMHD 4:2:2 est utilisée pour désigner l’utilisation d’un codec MPEG-2 à 50Mbits/s en 4:2:2
YUV Initiales désignant les signaux vidéo en composantes analogiques. Y représente la luminance, tandis que U et V représentent respectivement (B-Y) et (R-Y).
(Voir composantes)
 Zone de sécurité Partie centrale de l’image qui de l’image vidéo qui ne risque pas d’être rognée en cas d’affichage en overscan. On la considère généralement comme étant 90% de la surface de l’image.
Zone de sécurité titre:  Partie centrale de l’image dans laquelle les titres ne risquent pas d’être coupés lors de l’affichage sur l’écran final. On la considère comme couvrant 80% de la surface de l’écran. Toutes les mentions légales doivent être dans cette zone.
Zoom Objectif à focale variable.  Permet de passer d’un grand angle à un téléobjectif.
On appelle aussi zoom est aussi une variation de focale  qui en changeant le grossissement, donne l’impression
de se rapprocher, ou de s’éloigner de l’action.