INTRODUCTION

TEMPS DE LECTURE : 2h

Vous apprendrez ici à maîtriser tous les formats d’image, c’est-à-dire les caractéristiques qui composent l’image. Ainsi, vous pourrez la contrôler, que ce soit sur le tournage mais aussi en postproduction.  

LE RATIO

Il s’agit du rapport de la hauteur par la largeur d’une image, mais pour l’instant on ne parle pas encore de pixels ! Le ratio permet de définir la forme de notre image : plutôt carrée ou plutôt panoramique. 

Un ratio s’exprime X:1 (ex: 1,33:1) et se dit « un trente trois pour un ».  Cela signifie dans votre image que la hauteur est de 1, et que la largeur est de 1,33.  Puisque le ratio n’est qu’un rapport, il n’y a pas d’unité. C’est pour ça qu’on ne parle pas encore de pixels.

 

Historiquement, le ratio est défini par la largeur physique de la pellicule entre ses perforations.

Ce sont William Dickson et Thomas Edison qui, en 1892 définissent l’étalon universel d’une pellicule de 4 perforations de hauteur par photogramme. La pellicule en elle-même mesure couramment 35mm de largeur (d’où son nom) mais l’espace dédié à l’image (le photogramme) est forcément plus petit et ne mesure que 24,89 mm. Cette largeur, reportée à la hauteur d’un photogramme de 4 perforations de haut (soit 18,67 mm), nous donne le ratio le plus connu de l’histoire :

 

24,89 ÷ 18,67 = 1,33315479 (raccourci en : 1,33 : 1)

 

Ce fameux 1,33 vous en avez déjà tous entendu parler sous une autre forme : le 4/3. C’est la dénomination « grand public » du 1,33 :1.

 

4 ÷ 3 = 1,3333333

 

Voilà comment est obtenu le ratio d’une image de 24,89 mm de largeur et 18,67 mm de hauteur. Mais souvenez-vous bien qu’un ratio n’exprime pas une taille d’image, mais bien un rapport entre une hauteur et une largeur !

 

Quelques calculs pour jouer avec le ratio :

 

Hauteur x ratio = Largeur    –    1080 x 1,78 = 1920

Largeur ÷ ratio = Hauteur    –    1920 ÷ 1,78 = 1080

Largeur ÷ Hauteur = ratio     –    1920 ÷ 1080 = 1,78

 

Vous n’avez pas les bons résultats sur la calculatrice ? C’est normal puisqu’ici, 1,78 est un résultat arrondi. Pour trouver les bonnes largeur et hauteur, vous devez entrer le ratio complet soit 1,77777778.

 

Un ratio est toujours exprimé « pour 1 ».  Par exemple : 1,33 :1 | 1,66 : 1 | 1,78 :1 etc 

On a défini et accepté que la hauteur ne varie jamais dans un ratio et c’est donc la largeur qui sera modifié pour élargir ou rétrécir notre image. C’est la SMPTE (Society of Motion Picture and Televison Engineers) qui a définitivement attribué la valeur 1,0 à la hauteur des ratios utilisés dans le cinéma. Il s’agit donc d’une norme définie pour le monde entier afin de qualifier nos ratios d’image. 

 

Mais alors c’est quoi le 16/9 et le 4/3 ?                                                                                                                             

Ce sont des dénominations simplifiées pour le grand public. On les exprime donc sous forme de fractions.

 

1,33 : 1  ->  4/3

1,66 : 1  ->  ancien ratio de cinéma en Europe

1,78 : 1  ->  16/9

1,85 : 1 ->    ancien ratio de cinéma Américain

2,35 : 1 ->   Ratio préférés des blockbusters Américains aujourd’hui

2,39 : 1  ->  Ratio préférés des blockbusters Américains aujourd’hui

 

 

LA DÉFINITION / LA RÉSOLUTION

La définition d’une image n’est pas à confondre avec la résolution. En effet, les deux termes sont très souvent confondus, même par certains professionnels du cinéma et de la télévision. 

 

La définition détermine le nombre de pixels en hauteur et en largeur qui composent une image ou un écran. 

 

On la différencie en trois groupes différents : SD, HD et UHD. On côtoie leurs standards sur des plateformes comme Youtube tous les jours. Les valeurs ci-après sont attribuées au ratio 1.78 : 1 soit 16/9 standard :

 

Standard Definition High Definition   Ultra High Definition

 

            256 x 144       720 x 1280         3840 x 2160 (4K)

            640 x 360     1920 x 1080         7680 x 4320 (8K)

            720 x 480 (aussi appelée “Full HD”)

            768 x 576

 

C’est bizarre, je croyais que la 4K c’était 4096 x 2160 ?

 Ne confondons pas 4096 x 2160 et 3840 x 2160 ! Certes ils ont la même hauteur, sont tous les deux en 4K mais n’ont pas le même ratio !

 

3840 ÷ 2160 = 1,77777778   (donc le ratio 1,78 : 1)

4096 ÷ 2160 = 1,8962963     (donc le ratio 1,89 :1)

 

En revanche, la résolution est une densité de pixels (ou de points) d’un écran ou d’un support physique (comme une feuille de papier par exemple). Elle est donnée la plupart du temps à la taille d’un pouce. On parle de “Pixels Par Pouce” (ppp) ou de “Points Par Pouce“.

 

En Anglais : “Pixel Per Inch” (ppi) ou “Dot Per Inch” (dpi)

 

C’est un terme bien plus utilisé dans l’univers de la photographie (qui imprime régulièrement des clichés) que dans le cinéma où tout est normé et où seul le projectionniste s’intéresse à ça.  

LA CADENCE

C’est maintenant que nous allons commencer à parler d’image comme d’une vidéo plutôt qu’une simple image figée. Et oui, il faut bien commencer à créer du mouvement pour faire du cinéma ! 

La cadence c’est donc le nombre d’images qui vont s’afficher pendant une seconde. Il existe de nombreux standards. 

 

 

La toute première cadence déterminée par les frères Lumière était du 16 images par seconde. C’est ce qui donne aujourd’hui cette impression de saccade mélangée à de l’accéléré aux films de cette époque.

Puis les cadences ont évolué en même temps que les caméras. Les techniciens ont toujours cherché à capter de plus en plus d’images par seconde dans la limite des capacités mécaniques et électriques. En effet, il a fallu que la caméra tourne vite sans abîmer la pellicule, et les mécanismes des premières caméras en étaient incapables ! 

 

Pire, pour nos caméras aujourd’hui, il faut non seulement que le capteur des caméras puisse se “rafraîchir” suffisamment vite, mais aussi que l’enregistreur intégré à la caméra soit suffisamment rapide pour tout encoder dans une bonne définition !

 

Aujourd’hui, les cadences sont normées (c’est-à-dire que des hommes ont réfléchi à des cadences avec lesquelles tout le monde doit travailler pour faciliter le processus de création des films) et il en existe un sacré paquet !

Les plus connues sont le 24 images par seconde, le 25 images par seconde et le 30 images par secondes. Ce sont aussi les plus utilisées dans le monde. On peut l’abréger 24 i/s ou 24 fps (frame per second) mais ce dernier fait plutôt référence aux jeux-vidéos. En revanche on évite de l’abréger “25 i” car il y a un risque de confondre les cadences et les trames (que l’on verra juste après) en utilisant juste un i tout seul.

Le 25 i/s et le 30 i/s sont les cadences couramment utilisées par la télévision dans les pays Européens et Américains. Elles ont été déterminés grâce à la fréquence du courant électrique.  Aux États-Unis, la fréquence du courant est de 60Hz tandis qu’en France, elle est de 50Hz. Or, il a été décidé (pour simplifier techniquement la diffusion de signaux vidéos) que les cadences d’images soient définies en divisant par deux la fréquence du courant électrique

 

60Hz ÷ 2 = 30 i/s

50Hz ÷ 2= 25 i/s

 

Depuis, rien a changé. La télévision française diffuse toujours toutes ses chaînes à 25 images par seconde et la télévision Américaine à 30 images par seconde. 

Le cinéma a toujours été un cas à part dans ces histoires de fréquences puisque la norme a toujours été de 24 images par seconde où que l’on soit sur terre. 

Plus tard, d’autres cadences ont émergé avec l’évolution des techniques, soit pour créer du “Slow Motion” (des effets de ralentis dont on peut contrôler la vitesse), soit pour donner plus de réalisme aux mouvements. 

 

Quelques autres cadences :

 

48 HFR

Il s’agit de la cadence utilisée dans le film Le hobbit : un voyage inattendu. Elle permet de donner beaucoup de réalisme à l’image. Cette cadence est celle qui se rapproche le plus ce que perçoit l’oeil humain en terme de mouvements et de vitesse de rafraîchissement des images. 

 

23,976

C’est la cadence de conversion. Elle est de plus en plus utilisée sur les tournages de productions internationales car elle permet de convertir très facilement les fichiers dans une cadence télé française, américaine ou cinéma. 

 

 

Savoir convertir des cadences est un prérequis pour travailler dans le cinéma et la télévision. Si la conversion d’un fichier est mal faîte, vous pourriez créer sans le vouloir des “doubles images” ou saccader complètement votre film. Donc pour apprendre à convertir des cadences, vous pouvez consultez ce cours là.

LES TRAMES

 

Elles peuvent être “progressives” ou “entrelacées”. Sur des écrans composés de pixels, une image apparaît toujours ligne après ligne.

  • Lorsque la trame de l’image est progressive, cela signifie que chaque ligne de pixels est balayée dans l’ordre (ligne 1, puis 2, puis 3 etc…). 
  • Lorsque la trame d’une image est entrelacée, cela signifie qu’on balaye une ligne de pixels sur deux. Les lignes paires d’abord puis les lignes impaires (ligne 1, puis 3, puis 5 etc… et lorsque qu’on a fait toutes les lignes impairs, on remonte et ligne 2, puis 4, puis 6 etc…).

 

Attention ! On parle bien d’afficher une seule image ! 

Ce processus d’affichage ligne par ligne se répète ensuite pour

chaque image que l’on veut afficher (soit 25 fois par seconde par exemple).

 

Attention à la conversion des trames ! Lorsque vous tournez une vidéo en entrelacée, vous enregistrez les lignes de pixels dans un ordre pair puis impair mais si vous les lisez sur un écran paramétré en progressif, ce dernier va lire les lignes de pixels dans l’ordre. On constate alors un décalage entre les lignes que l’on appelle “l’effet peigne”.

 

 

 

Pour l’éviter c’est simple, il suffit de tourner vos vidéos / films avec les même trames que votre support de diffusion ! Sinon, il faudra s’amuser à les convertir après coup. 

Historiquement, ce sont nos voisins Américains qui ont eu l’idée de cette trame entrelacée afin de donner l’illusion que l’on affiche deux fois plus d’images par seconde sans avoir augmenté le débit (la quantité de données qu’on envoie aux téléviseurs). Avec cette technique, l’oeil humain a l’impression de percevoir 50 images par seconde au lieu de 25 par exemple, mais il ne s’agit que de demies images à la fois. 

Cette technique a aussi été inventée pour pallier à un problème sur les écrans à tube cathodique (CRT) de l’époque appelé “scintillement” (“flicker” en anglais).

En effet, le taux de rafraîchissement des écrans à l’époque n’était pas assez rapide et lorsque le bas de l’écran s’éclairait, le haut de l’écran avait déjà perdu beaucoup de luminosité. Ce qui donnait un vilain effet de scintillement, comme si l’image perdait de son éclat 25 fois par seconde. 

Si l’idée de l’entrelacement est née entre les années 20 et 30  grâce notamment aux ingénieurs Léon Theremin (URSS), Fritz Schröter (Allemagne) ou encore Randall C. Ballard (USA), ce n’est que dans les années 40 que nous avons retrouvé l’entrelacement dans toutes les télévisions. La technologie est restée longtemps dans nos écrans puisque son déclin n’est arrivé que dans les années 70 avec l’arrivée sur le marché des écrans informatiques (qui n’ont pas eu besoin de cette technologie). En effet, lorsque l’informatique est née, les capacité de débit vidéo étaient bien meilleures et on était capable désormais d’afficher des images entières (donc progressives) avec une cadence supérieure. 

Malheureusement, si l’on retrouve toujours aujourd’hui des productions en entrelacé, c’est parce que cette technologie a été développée à la même époque que les normes de codage de la couleur (PAL, NTSC et SECAM) et étaient donc trop liés pour retirer les trames entrelacées du marché sans devoir aussi tout changer aux normes internationales sur le codage de la couleur en analogique. 

 

NB : C’est à cause de cette assimilation des trames et des normes PAL, NTSC et SECAM que beaucoup les confondent et pensent qu’il s’agit de la même chose. On entend souvent que PAL = progressif et NTSC = entrelacé. A la belle époque de l’analogique, c’était peut-être vrai dans certains cas, mais pas tout le temps et comme beaucoup de chaînes de télévisions et/ou de techniciens ont encodé en entrelacé leur balayage et en NTSC leur couleur, on a retenu qu’il y avait une relation de cause à effet entre les deux. Or ce n’est pas le cas.

 

Aujourd’hui en 2020, on retrouve toujours de la vidéo entrelacée un peu partout. Puisque l’analogique a plus ou moins disparu des écrans radars, l’entrelacé et les normes de codage de couleurs disparaissent aussi progressivement et l’on se dirige vers une époque ou on ne parlera plus d’eux qu’au passé. Pour l’instant, nous n’en avons pas encore fini avec eux !

LE PIXEL ASPECT RATIO

Tout comme le ratio d’une image, le ratio d’un pixel détermine sa forme. De base, un pixel a une forme carré, et c’est le standard pour tous les types de diffusion en France. Mais il peut être rectangulaire et est lui aussi souvent associé involontairement aux formats PAL et NTSC. Nous devons (encore) cette  invention à nos très chers amis Américains ! Les autres ratios que le 1,0 ne servent plus beaucoup aujourd’hui, mais ont servi durant les temps de l’analogique à réduire considérablement le poids des fichiers (les flux à traiter) pour des images toujours plus grandes !

 

Voici les Ratios de pixels que proposent les logiciels de la suite Adobe :

 

1,0 Carré

0,9091 DV NTSC

1,2121 DV NTSC

1,0940 DV PAL

1,4587 DV PAL grand écran

2,0 Anamorphique

1,333 Anamorphique 1080

1,5 DVCPRO HD

FORMATS NUMÉRIQUES ET CODECS

Il existe une multitude de formats d’export différents mais chacun n’est qu’une capsule qui contient des codecs.

Le codec est un dispositif capable de compresser et/ou décompresser un signal numérique. Le format permet de contenir ce signal numérique ainsi que celui du son.

Comme si le format était une boîte numérique qui pouvait contenir d’autres objets comme des images et du son !

Un codec peut être LOSSY ou LOSSLESS. Comprenez avec perte et sans perte.

 

  • Les codecs qui sont “lossy” vont compresser les images de votre vidéo en retirant des éléments qui la composent. Le plus connu de tous est le H.264 (qui est un codec mais aussi un format) et qui pratique la compression par macroblocs. C’est-à-dire que le logiciel va prendre un groupe de pixels et le remplacer par un macrobloc qui lui ressemble. On perd donc de l’information dans l’image.

 

 

Les codecs qui sont “lossless” vont compresser les images de votre vidéo en ne retirant aucune information dans votre image. Ce sont donc les codecs utilisés dans le monde professionnel. Dans le cas du ProRess d’Apple, elle ne compresse que le code binaire (les 1 et les 0 qui composent l’information de l’image).

Par exemple :

11010100110011111000111000010101010000111100001100

Le logiciel trouverait les 0 ou les 1 qui se suivent et enregistrerait non pas 111111 mais 1×6. 

Vous l’avez compris, plus le fichier est compressé, moins il sera lourd à stocker. Donc une compression à perte permet de stocker beaucoup d’images mais dégradées tandis qu’une compression sans perte permet de stocker que quelques images mais sans altérer leur qualité !

Apple avec son logiciel Final Cut Pro, tient aujourd’hui le marché de l’image numérique avec son format .mov et son codec « Apple ProRess » qui sont parfaitement optimisés. De plus depuis 2019, le ProRess n’est plus disponible que sous iOS et peut-être utilisé avec la suite Adobe sur PC.

Il compresse l’image sans perte et il s’est installé chez tous les professionnels comme référence. En face de lui, son concurrent direct est AVID. C’est un logiciel de montage cinéma. Il se devait donc de proposer ses propres formats et codecs sans pertes. C’est ainsi que sur un PC, le format pro est le MXF et son codec le DNxHD

 

Les formats principaux : 

.avi

.mov

.mp4

.mkv 

 

ATTENTION ! Le .mov peut contenir un codec H.264 mais le .mp4 aussi. Ne jugez jamais la qualité d’un fichier en fonction de son format.

LE DCP

Enfin, un format un peu à part est le DCPC’est le format des salles de cinéma.

Lorsque le réalisateur et son équipe terminent la toute première copie de leur film, celui-ci est copié sur un disque dur protégé en écriture avec un format lui aussi protégé : le DCP.

Un long-métrage pèse à lui seul entre 200Go et 500Go, c’est pourquoi ce format est directement créé sur un disque dur externe. Il contient toutes les données nécessaires à la projection du film en salles :

  1. Une ou deux pistes vidéo si le film est en 3D stéréoscopique
  2. Au minimum 2 pistes audio
  3. Toutes les pistes de sous-titres.

En cabine de projection, c’est un serveur qui va lire le disque dur. Lorsqu’on le branche dessus, il nous demande de rentrer les mots de passe pour le déverrouiller et une fois ceci terminé, le serveur va démarrer le processus d’«ingest». Il va récupérer le film et le copier temporairement sur sa mémoire. La durée autorisée de stockage dans le serveur est inscrite dans le format DCP et est souvent égale à une semaine car c’est le temps minimum d’exploitation d’un film en salles. 

NB : Pour créer des copies DCP d’un film, il faut des logiciels spéciaux payants et beaucoup de patience. Seul un logiciel est disponible gratuitement : OpenDCP. Depuis quelques temps, Adobe Première Pro intègre un format et un codec “Wraptor DCP” qui permet de créer un DCP non sécurisé pour projeter vos films en salles.

CONCLUSION

Dans la pratique, tous ces formats sont des outils à votre disposition. Vous serez amenés à choisir les formats que vous voudrez pour votre film et devrez être prêts à les argumenter techniquement et surtout artistiquement. Une fois que vous aurez choisi exactement le format que vous voulez pour votre film à la projection, il ne vous reste plus qu’à choisir le matériel de tournage en conséquence.

Maintenant que vous les connaissez, vous pourrez vous amuser dans vos choix de mise en scène mais attention à ne pas trop en abuser ! Oser de nouvelles pratiques artistiques c’est bien, ne pas sortir le spectateur du film c’est mieux. Lorsque le film est trop différent, est trop chargé en nouvelles pratiques, vous risquez de perdre votre spectateur et alors là, vous aurez tout perdu !

Exemple avec le Hobbit : Un voyage innatendu de Peter Jackson, qui a été tourné en 48 images par secondes (donc deux fois plus que la cadence habituelle) pour donner un aspect réaliste à l’histoire. Les spectateurs ont donc été très partagés car beaucoup n’ont pas supporté ce nouveau format inhabituel.

>