Composants appareil photo

Commençons d’abord par l’essentiel à savoir, comment marche un appareil photo. Pour cela nous allons parler des différents éléments qui le composent.

Viseur

Lorsque le photographe regarde à travers le viseur (ceci est le cas seulement sur les appareils photo reflex, les plus petits permettent de voir la zone à capturer directement sur un écran mais nous y reviendrons), son regard suit la même trajectoire que l’endroit où passe le faisceau lumineux à l’aide d’un assemblage précis de petits miroirs. Ainsi l’utilisateur de l’appareil photo verra la même chose que ce qui va être pris en photo.

Objectif

 L’objectif qui est la partie de gauche et parfois détachable (sur les reflex) est composé de lentilles qui vont permettre de « zoomer » lorsque l’on va les écarter et inversement lorsqu’on « rétrécira » l’objectif.  C’est cet assemblage minutieux de lentilles qui va permettre de prendre des photos à différentes distances, sans perdre de qualité et sans déformation. Ceci est un atout important par rapport aux téléphones qui vont avoir des focales fixes et ne permettront pas tout ça.

Diaphragme

Le diaphragme que l’on aperçoit au milieu permet de régler la lumière qui rentre en agrandissant ou en rétrécissant le trou formé au milieu de l’objectif. J’aborderai son utilité dans la partie du triangle d’exposition.

Obturateur + capteur

Enfin l’obturateur est un volet qui va s’ouvrir pour laisser passer la lumière et la laisser être enregistrée par le capteur. Dès que la photo est prise ce volet se referme (explications plus précises dans la partie triangle d’exposition).  Le capteur est composé de millions de photosites qui enregistrent chacun la lumière qu’ils reçoivent et permettent la visualisation d’une image qui s’affichera sur l’écran lorsqu’ils sont tous rassemblés. Tout l’appareil photo (hors objectif, donc avec l’obturateur, le capteur, l’écran…) est appelé le boitier.

formation

Types d’appareils

Il existe différents types d’appareils photos sur le marché qui vont être spécifique à diverses utilisations et toucheront donc un certain public. On trouve premièrement les appareils photos compacts qui sont de petites tailles et tiennent dans la poche. Ils sont équipés d’un objectif rétractable qui permet de « zoomer » mais la plage focale reste quand même assez limitée. Les bridges sont des appareils un peu plus évolués, avec plus de contrôle et même par exemple un flash qui sort de l’appareil. Ensuite on trouve les appareils qui ne sont pas constitués d’un seul bloc, c’est à dire que l’objectif et le boitier sont séparés. Il en existe 2 catégories; les reflex et les hybrides. Ce sont les appareils utilisés par les professionnels où des personnes aguerries. Ils se différencient grâce au viseur, celui du reflex est un viseur optique (on voit ce que l’appareil « voit ») et celui de l’hybride est électronique c’est à dire qu’on y distingue un retour en temps réel de ce que va enregistrer le capteur (en incluant la vue des filtres, de l’exposition…) mais sans être en vision directe. Chacune de ces 4 familles à ses atouts en fonction de ses besoins, mieux vaut-il prendre un appareil plus léger à emmener partout ou alors un appareil offrant plus de contrôle, parfois un meilleur rendu… à vous de voir en fonction de vos projets !

camera, film camera, photography, analog camera, analog, beautiful wallpaper, slr camera, exposure, classic, film, lens, media, photo, vintage, retro, background, iphone wallpaper

formation

Types d’appareils

Attention aux différentes montures existantes si vous souhaitez acheter un appareil photo ! Sur le marché des appareils photos, des marques vont avoir leur propres montures (on ne va pas pouvoir assembler tous les objectifs avec tous les types de boîtiers car le montage sera parfois différent).
C’est donc important de vérifier et de se renseigner sur la monture du boîtier, si on souhaite acheter un objectif supplémentaire pour son appareil photo.

formation

Triangle d’exposition

Nous allons maintenant parler des 3 principaux paramètres permettant de régler l’exposition d’une photo, à l’aide d’un schéma appelé le triangle d’exposition. Les éléments ci-dessous vont permettre de « s’amuser » à obtenir des rendus plus spécifiques, plus originaux.

Obturation et temps de référence

Le premier paramètre est la vitesse. Grâce à certains modes manuels d’appareils photo on va pouvoir venir changer le temps pendant lequel le volet placé devant le capteur (obturateur) se soulève (passer de 1/1000 de secondes à 1/30 de secondes, soit 0,03 secondes ce qui reste encore très court). Cela va permettre d’obtenir une photo plus ou moins nette en fonction de la durée choisie, d’obtenir des flous de mouvements sur un sujet. Une durée d’obturation plus longue avec une image « floue » est parfois voulue et peut offrir de jolis résultats artistiques. Par exemple, pour citer quelques temps de références, une image fixe d’un coureur peut se faire à une vitesse d’obturation de 1/250, 1/500-1/1000 pour des voitures ou encore 1/2000 ou plus pour des oiseaux en vol. Ces temps ne sont pas exacts et c’est à vous de les adapter en fonction de la situation, de la vitesse. Attention à ne pas privilégier les temps les plus faibles possibles parce que cela joue (et diminue dans ce cas) la lumière qui atteint le capteur ce qui peut altérer et assombrir l’image, même si cela dépendra aussi des paramètres suivants.

Ouverture

L’ouverture de l’appareil photo est un élément qui va aussi permettre de modifier la quantité de lumière qui atteint le capteur mais cette fois-ci à travers le réglage du diaphragme. Cet élément placé entre les lentilles va avoir un impact sur la profondeur de champ de l’image, c’est-à-dire qu’on va observer un flou à certaines distances sur l’image. Plus l’ouverture f est grande (f16-f22 ou plus), plus l’image est nette sur l’ensemble des distances que l’on observe. Par contre, plus le f est petit (f1.8 par exemple) plus la zone nette (en termes de distance par rapport à l’appareil) sera réduite, ce qui va être intéressant pour que le spectateur se focalise sur un seul élément de la scène. Cet effet « bokeh » est très utilisé en photographie, notamment pour des portraits et s’obtient naturellement avec des appareils photos. Lors de scènes sombres une grande ouverture va aussi permettre d’obtenir plus d’informations sur l’image (plus de lumière).

ISO

Le dernier paramètre du triangle d’exposition opère au niveau de la sensibilité du capteur, celui-ci va pouvoir être « paramétré » pour recevoir une quantité plus importante de lumière ou plus petite selon les caractéristiques de bases du capteur (il y a un minimum et un maximum qui varie selon les capteurs et dont la plage augmente avec des capteurs de très bonne qualité). Cela se compte en ISO et peut aller de 100 à 6400 par exemple. Une valeur d’ISO faible va rendre le capteur moins sensible, donc sera utilisée pour un lieu très lumineux afin d’éviter que l’image soit trop claire et surexposée. A l’inverse une valeur plus importante va permettre d’obtenir plus de détails sur une scène sombre mais cela se fera au détriment de l’image car une présence de bruits numériques peut survenir (en fonction des maximums d’ISO des capteurs). Le bruit numérique est le fait que l’image soit parsemée de petits points, de grains. On cherche souvent à les éviter même si cela peut être un choix dans certaines compositions.

formation

Triangle d’exposition

Nous allons maintenant parler des 3 principaux paramètres permettant de régler l’exposition d’une photo, à l’aide d’un schéma appelé le triangle d’exposition. Les éléments ci-dessous vont permettre de « s’amuser » à obtenir des rendus plus spécifiques, plus originaux.

Obturation et temps de référence

Le premier paramètre est la vitesse. Grâce à certains modes manuels d’appareils photo on va pouvoir venir changer le temps pendant lequel le volet placé devant le capteur (obturateur) se soulève (passer de 1/1000 de secondes à 1/30 de secondes, soit 0,03 secondes ce qui reste encore très court). Cela va permettre d’obtenir une photo plus ou moins nette en fonction de la durée choisie, d’obtenir des flous de mouvements sur un sujet. Une durée d’obturation plus longue avec une image « floue » est parfois voulue et peut offrir de jolis résultats artistiques. Par exemple, pour citer quelques temps de références, une image fixe d’un coureur peut se faire à une vitesse d’obturation de 1/250, 1/500-1/1000 pour des voitures ou encore 1/2000 ou plus pour des oiseaux en vol. Ces temps ne sont pas exacts et c’est à vous de les adapter en fonction de la situation, de la vitesse. Attention à ne pas privilégier les temps les plus faibles possibles parce que cela joue (et diminue dans ce cas) la lumière qui atteint le capteur ce qui peut altérer et assombrir l’image, même si cela dépendra aussi des paramètres suivants.

Ouverture

L’ouverture de l’appareil photo est un élément qui va aussi permettre de modifier la quantité de lumière qui atteint le capteur mais cette fois-ci à travers le réglage du diaphragme. Cet élément placé entre les lentilles va avoir un impact sur la profondeur de champ de l’image, c’est-à-dire qu’on va observer un flou à certaines distances sur l’image. Plus l’ouverture f est grande (f16-f22 ou plus), plus l’image est nette sur l’ensemble des distances que l’on observe. Par contre, plus le f est petit (f1.8 par exemple) plus la zone nette (en termes de distance par rapport à l’appareil) sera réduite, ce qui va être intéressant pour que le spectateur se focalise sur un seul élément de la scène. Cet effet « bokeh » est très utilisé en photographie, notamment pour des portraits et s’obtient naturellement avec des appareils photos. Lors de scènes sombres une grande ouverture va aussi permettre d’obtenir plus d’informations sur l’image (plus de lumière).

ISO

Le dernier paramètre du triangle d’exposition opère au niveau de la sensibilité du capteur, celui-ci va pouvoir être « paramétré » pour recevoir une quantité plus importante de lumière ou plus petite selon les caractéristiques de bases du capteur (il y a un minimum et un maximum qui varie selon les capteurs et dont la plage augmente avec des capteurs de très bonne qualité). Cela se compte en ISO et peut aller de 100 à 6400 par exemple. Une valeur d’ISO faible va rendre le capteur moins sensible, donc sera utilisée pour un lieu très lumineux afin d’éviter que l’image soit trop claire et surexposée. A l’inverse une valeur plus importante va permettre d’obtenir plus de détails sur une scène sombre mais cela se fera au détriment de l’image car une présence de bruits numériques peut survenir (en fonction des maximums d’ISO des capteurs). Le bruit numérique est le fait que l’image soit parsemée de petits points, de grains. On cherche souvent à les éviter même si cela peut être un choix dans certaines compositions.

formation

Triangle d’exposition

waterfalls, cliffs, moss, mossy, rocks, rocky, falls, torrent, cascade, cascading, creek, long exposure, nature, plants, stream, water, landscape, waterfalls, waterfalls, waterfalls, waterfalls, waterfalls, cascade, creek, stream, stream, stream, stream

Pose longue

La pose longue est un principe permettant d’obtenir des effets sur ses photos sans avoir recours aux retouches après la prise de vue. Il suffit d’augmenter le temps d’obturation pendant lequel est pris l’image et de le régler sur plusieurs secondes (voire plusieurs minutes). Cela va être utile pour obtenir des images transmettant un effet de vitesse notamment des traits lumineux derrière les véhicules correspondants aux phares (même chose pour des trainées au niveau de chaque étoile puisque celles-ci sont en mouvement mais il faudra un temps encore plus long). Une des autres utilisations les plus connues des poses longues est le cas de l’eau en mouvement parce que l’on peut obtenir des cours d’eau très lisses, très fluides donnant un aspect fantastique (cela supprime tous les petits éléments tel que les gouttes car celles-ci deviennent sans importance sur une échelle de plusieurs secondes). On peut voir ce procédé comme une sorte de « moyenne » d’une rafale d’images qui aurait été prise pendant la même période. Cependant, il vous sera assez compliqué d’obtenir le résultat voulu dès le premier coup, le rendu est parfois très incertain : expérimentez, recommencez encore et encore jusqu’à avoir l’image attendue !

formation

Triangle d’exposition

Pour conclure ces explications sur le triangle d’exposition, comparons le triangle d’exposition à un verre d’eau. La vitesse d’exposition serait la durée pendant laquelle l’eau coule pour remplir le verre, plus celle-ci est longue plus le verre contiendra d’eau. L’ouverture correspondrait à la taille de l’ouverture du robinet (plus celle-ci est grande plus le verre va se remplir) tandis que la sensibilité serait la taille du verre, plus le verre est grand plus il faudra d’eau pour le remplir (ce qui correspond à une sensibilité basse, peu d’ISO, et pas l’inverse !). Ces trois paramètres permettent de remplir correctement le verre d’eau (dans notre cas ils permettent d’ajuster correctement l’exposition de la photo). Si le verre est rempli, sans déborder, c’est comme si on arrivait à obtenir une bonne exposition sans zone trop sombre et sans zone complètement blanche où l’on ne peut rien distinguer.

water, glass, liquid, wet, refreshment, diamond, splash, water glass, nature, drop of water, fresh, light effect, blow, gems, luxury, wealth, ice cubes, diamond shape, drink, drinking glass, sparkling water
Silhouetted man under a bright streetlight at night, urban scene.

L’exposition peut aussi être modifiée grâce à un réglage « d’EV », qui va compenser une mauvaise exposition en « éclaircissant » ou en « assombrissant » l’ensemble de l’image. L’appareil photo détermine lui-même si la photo est bien exposée ou pas, mais il faut parfois avoir recours à ces réglages soi-même car l’évaluation n’est pas toujours correcte.  Pour cela on peut s’aider de diagrammes, des histogrammes qui vont représenter les différents niveaux de gris de l’image et permettre de se rendre compte de l’exposition (si les colonnes sont plus hautes et atteignent des pics aux extrémités du diagramme c’est que la photo est mal exposée ; surexposée si c’est à gauche, ou sous-exposée si c’est à droite).

formation

Triangle d’exposition

Les stops

L’unité de mesure permettant de modifier un paramètre pour parvenir à rééquilibrer l’exposition s’appelle le stop. La plage dynamique d’un appareil photo (se situe entre la zone la plus sombre et la zone la plus lumineuse que l’appareil parvient à enregistrer sur une même image) se compte donc en stop. C’est un très bon indice pour comparer et connaître les capacités d’un appareil photo.
Pour faire simple, si l’on double la valeur de la zone la plus lumineuse de notre image et que l’on parvient quand même à distinguer correctement la zone la plus sombre, la plage dynamique est de 1 stop.
Si on arrive à voir nettement sans perte d’informations, l’élément le plus sombre, alors qu’on a multiplié par 4 la zone la plus claire, il y a 2 stops.
Cela marche pour chacun des 3 paramètres d’exposition, par exemple, si on multiplie la valeur de l’ISO par 2 on obtient 1 stop et maintenant si on souhaite que l’image soit parfaitement exposée on va venir soustraire un stop sur un autre réglage (la vitesse d’obturation que l’on va donc diviser par 2).

formation

Cadrage

Afin d’obtenir une composition équilibrée, il existe différents types de cadrages qui vont aider à placer les éléments que l’on veut prendre en photo dans la scène. Le cadrage le plus utilisé est la règle des tiers (déjà inséré sur la majorité des appareils ou des téléphones), ce sont des lignes qui coupent l’image en tiers, à la fois en horizontal et en vertical et sur lequelles on vient placer les personnes ou plus globalement les éléments principaux de notre composition. Par exemple lors d’interview ou de dialogues dans des séries, les personnages vont être généralement placés sur le premier ou le dernier tiers. Cela améliore l’image contrairement à un placement au centre. Plein d’autres cadrages existent et c’est à vous de voir lequel est le plus propice pour chaque image. Libre à vous de tenter, d’innover !

formation

Modes des appareils photos

Les appareils photos possèdent en général plusieurs modes de réglages (en plus des modes rafales, retardateur) qui vont laisser le contrôle à l’utilisateur sur un ou plusieurs paramètres et laisser la gestion des autres à l’appareil photo, qui fera en sorte de compenser automatiquement vos réglages manuels (comme pour le verre d’eau, afin d’assurer une bonne exposition).

mode Auto

Le mode Auto va laisser la gestion de l’ensemble des paramètres à l’appareil photo, l’utilisateur peut alors se focaliser sur le cadrage par exemple.                                                                                             

mode manuel (M)

Le mode manuel (M) laissera au photographes toutes les libertés, avec la main sur les ISO, l’ouverture, ainsi que le temps d’obturation.                                                                                                                          

camera, digital camera, dslr, digital slr, shooting modes, camera button

mode Av (ou A)

Le mode priorité ouverture (Av) permet de régler soi-même les ISO et l’ouverture, mais sans s’occuper de la vitesse d’obturation.                                        

mode Tv (ou S) et P

Enfin, le mode priorité vitesse (Tv) permet la modification de la vitesse d’obturation et des ISO par l’utilisateur et le mode programme P laisse seulement la possibilité de régler les ISO.                    

Le mode choisi dépend du rendu que souhaite le photographe, de l’image qu’il souhaite capturer et peut varier d’une photo à l’autre. Il est préférable de s’occuper d’un seul réglage sur les 3 si on a encore du mal à maîtriser la compensation avec les autres, qui permet une bonne exposition.

formation

Distance focale

La distance focale est la longueur qui sépare la lentille (le bout de l’objectif puisque chacun comporte plusieurs lentilles successives) au capteur de l’appareil photo. Elle se compte en général en millimètres et va permettre d’indiquer la capacité de zoom de l’objectif mais aussi l’angle de prise de vue que va permettre l’objectif. Il en existe des fixes, où aucun recadrage ne sera possible en direct, et des objectifs avec une plage focale allant d’un certain nombre de millimètres à un autre. Les objectifs avec des valeurs de focales inférieures à 35mm sont considérés comme « ultra grand angle » et offre des plans très larges, les objectifs situés entre 35 et 70mm sont standards, et ceux avec des valeurs supérieures font partie de la catégorie « téléobjectif » (avec un angle de vue très restreint, seulement quelques degrés, pour se focaliser sur un détail de la scène). Cependant, il n’y a pas de relation exacte et universelle entre les longueurs focales et les valeurs de grossissement (x3, x5 que l’on peut trouver sur les smartphones ou des petits appareils photos compacts). Cela est propre à chaque appareil, et les rendus avec une même plage focale peuvent varier en fonction de la taille des capteurs par exemple.

On pourrait croire que le fait de se rapprocher d’un sujet pour le prendre en photo ou le fait de s’éloigner et de zoomer en direction de celui-ci pourrait permettre d’obtenir un rendu similaire mais ce n’est pas le cas, détrompez-vous ! Ce qu’on appelle la « téléphoto compression » est le fait que plus la distance entre le sujet et le photographe est importante, plus l’arrière-plan et le sujet vont paraitre proche (pour comparer il va évidemment falloir utiliser le zoom, soit une distance focale plus importante sur cette scène).

blur, nature, grass, mushroom, grasses, plant, green, bokeh, backlighting, forest, close up, blurred, light, flare, lights, fall, blur, blur, blur, blur, blur, mushroom

Cet effet va permettre, premièrement d’apporter un beau flou d’arrière-plan, et deuxièmement de rapprocher des éléments qui sont en réalité loin l’un de l’autre. On peut alors jouer sur les échelles des objets et leurs tailles perçues par les personnes qui regarderont l’image. Il est important de rajouter que cela va avoir un impact sur la morphologie d’un visage par exemple, car celui-ci paraitra plus « carré » ou plus large à une distance plus importante.

formation

Filtres ND

Ce sont des filtres matériels très utilisés dans tout le domaine de la vidéo. On place ces éléments au bout de l’objectif, en les clipsant, et il en existe aussi pour les caméras d’action, les téléphones ou les drones. L’intérêt principal de ces filtres est d’assombrir l’image et de faire rentrer moins de lumière dans le capteur. Grâce à cela, on peut capturer des images plus « longues » lors des vidéos (chaque image est prise avec une vitesse d’obturation moins grande, en cohérence avec la règle des 180 degrés expliquée juste après), sans avoir des prises de vue trop lumineuses. On obtient alors des images avec un flou de mouvement, et donc une vidéo qui va paraître plus fluide, plus agréable à regarder.

Creative close-up of a computer keyboard viewed through an ND filter, showcasing unique perspective.

formation

Vidéo

Tout d’abord qu’est-ce qu’une vidéo ? C’est la succession rapide d’images, qui nous permet alors de visualiser un mouvement, une action. Ce nombre d’images va être appelé « fps » ou « ips » en français et correspond au nombre d’images qui vont passer sur l’écran en 1 seconde.

En général, un rendu fluide (cela ne dépend pas que du nombre d’images par seconde comme nous le verrons juste après) nécessite une vingtaine d’images par seconde voir plus. Par exemple les films diffusés au cinéma vont paraitre en 24 ips, les journaux télévisés et l’ensemble des programmes en Europe sont en 25 ips (ce qui correspond aux normes européennes, format PAL). Aux Etats-Unis et au Japon les diffusions web et TV sont en général en 30 ips, ce qu’on appelle le format NTSC. Il faut donc prendre en compte ceci lorsqu’on souhaite filmer et diffuser du contenu ; le changement de nombre d’fps est possible mais ce n’est pas recommandé (parmi les 25 images il faudrait qu’une d’entre elle soit supprimée quelque part pour obtenir une vidéo en 24 images par seconde). Les caméras d’action, certains appareils photo et les téléphones permettent de choisir quel nombre d’images par seconde et quel format nous souhaitons, dans la limite des capacités du capteur et de la gestion des données qui y est liées.

film stock, film, cinema, motion pictures, analog, negative, retro, old, vintage, closeup, film stock, film stock, film stock, film, film, film, film, film

Filmer avec un nombre d’images par seconde plus important que 30 va servir à obtenir des ralentis sur les séquences filmées (tel que la course d’un athlète, le saut ou la figure aérienne d’un skateur). Logiquement, si on veut un ralenti X2 sur la séquence (c’est à dire que ce que l’on va voir à l’écran pendant 2 secondes aura en réalité duré seulement 1 seconde) et avoir une vidéo finale en 24 fps, il va falloir filmer en 48 images par seconde (24 x 2). De même lorsque l’on veut un ralenti par 4, toujours avec une vidéo finale en 24 fps, il faut filmer en 96 fps (24 x 4). C’est exactement la même chose si on veut 25 fps, 30 fps ou plus en sortie. Les appareils ne vont pas tous offrir la même présentation d’un mode « ralenti » mais dans l’ensemble si vous avez besoin de connaitre la fréquence de captation à utiliser, ce sera la même démarche de calcul.

formation

Règle des 180°

Pour finir, la fluidité ne va pas dépendre seulement de cette fréquence d’images par seconde, mais aussi du contenu de chacune de ces images. Si chacune des photos de la vidéo est prise avec un temps d’obturation très court, on va obtenir des images fixes et entièrement nettes comme on a pu le voir dans la partie « triangle d’exposition ». Cependant si chacune des images est très nette, la vidéo va paraître saccadée et ne sera pas forcément agréable à regarder : elle ne va pas paraitre naturelle. Afin de gagner en fluidité on va chercher à obtenir un beau flou de mouvement (chacune des images sera la suite de l’autre et il y aura moins cet effet de coupure). Pour cela, on utilise la règle des 180° où l’on va calibrer le shutter (la vitesse d’obturation) sur 1 divisé par le double de la fréquence d’images. Prenons l’exemple d’une vidéo à 25 fps ; si on veut respecter la règle des 180°, il faut choisir de calibrer la vitesse de prise de vue sur 1/50ème (même chose pour toutes les autres fréquences d’images, 30 fps correspond à 1/60 ou encore 45 fps correspondrait à 1/90…). En général sur les appareils, la vitesse d’obturation lors des vidéos est déjà mise en place et c’est un détail (des modes plus professionnels peuvent permettre de le faire manuellement) mais il est quand même important de le savoir et de comprendre que la fluidité ne découle pas seulement des fps.

formation

Formats vidéo

Parlons maintenant des résolutions et de l’acronyme qui leur est attribué. La résolution HD, très courante, est aussi appelée 720p ce qui signifie que l’image va contenir 720 lignes de pixels (720 x 1280 pixels au total). Ensuite, si on prend une vidéo en 4K, il y aura 2160 pixels de largeur pour 3840 en longueur (aussi nommée 2160p).

Ces résolutions sont les plus connues et les plus utilisées (la 4K se développe de plus en plus aujourd’hui) mais il en existe plein d’autres comme les vidéos de qualité Full HD (1920 x1080) ou encore la 8K (7680 x4320) qui n’est pas encore trop exploitée pour le moment. Filmer en 4K offrira donc des fichiers plus détaillés mais plus volumineux qu’en HD par exemple, le choix d’une résolution plutôt qu’une autre va dépendre de l’utilité finale du contenu (et parfois de la place restante dans la mémoire de l’appareil !). Pour que les fichiers ne soient pas trop lourds, on compense généralement en baissant le nombre d’images par seconde et inversement.

Si on veut filmer en 120 fps on aura tendance à utiliser une résolution plus faible, si on souhaite que le fichier ne soit pas trop volumineux. Pour l’ensemble de ces résolutions, le ratio est toujours le même ; « 16 : 9 » soit une longueur de 16 pour 9 de largeur (on peut vérifier cela en utilisant le nombre de pixels d’une résolution ; par exemple en HD, avec 720 de largeur, si on fait 720/9 x 16 on obtient bien les 1280 colonnes de pixels). La majorité des vidéos sont dans ce format 16 : 9 qui est propice à des plans plus « cinématique », l’image est assez longue et va permettre de placer plus facilement des sujets pour un dialogue par exemple.

formation

Cadrages et effets

Différents cadrages de la scène sont utilisés en vidéo, ce qui peut aussi être le cas pour les photos. Ce ne sont pas des règles à obligatoirement suivre mais ce sont généralement les types de plans les plus utilisés en fonction de ce que le vidéaste souhaite mettre en avant. On trouve le plan d’ensemble (général) où le sujet va paraître petit dans la scène et où l’on va pouvoir visualiser précisément l’endroit où il se trouve. Le plan demi-ensemble permet aussi de voir le sujet avec ce qui l’entoure mais plus proche que le cadrage précédent. Le plan moyen montre le sujet de la tête aux pieds, il occupe l’ensemble de la hauteur de la scène. Ensuite on trouve le plan américain, du bassin jusqu’à la tête (utilisé dans les duels des westerns par exemple puisqu’on peut voir le personnage en détails mais aussi son arme à la ceinture), le plan rapproché qui dévoile seulement le buste, le gros plan montre l’ensemble du visage, et pour finir, le très gros plan se focalise généralement sur une partie du visage (tel que les yeux). Il est important de changer fréquemment de plans et de varier les cadrages car cela va permettre d’obtenir une scène dynamique et éviter l’ennui des spectateurs.  Pour choisir un cadrage, il faut se demander ce que l’on souhaite montrer à l’écran, est-ce que c’est le regard qui est important, ou alors le fait que le spectateur visualise l’entièreté de l’espace où il se trouve ?

formation

Mouvements de caméra

Pour amener un dynamisme plus important à la scène on peut aussi utiliser les mouvements de caméra. Attention par contre à rendre ceux-ci fluides et non saccadés (à moins que ce soit l’effet escompté; une scène où l’on veut montrer le chaos ?), à l’aide d’une stabilisation numérique, d’un stabilisateur mécanique ou encore d’un objet roulant sur lequel est situé la caméra (ce dernier est utile seulement pour les travellings). Un travelling est un déplacement rectiligne, il en existe principalement 3 types (qui correspondent aux 3 dimensions), le travelling avant/ arrière où l’on va donc par exemple déplacer la caméra vers l’avant afin de suivre la marche d’un personnage de dos. Pour revenir à la partie abordant l’effet de la distance focale, il ne faut pas confondre ce travelling avant avec le fait de zoomer progressivement sur le sujet (appelé travelling optique) car les 2 résultats seront très différents. Le travelling vertical (haut ou bas) et enfin le travelling latéral (gauche ou droite) qui peut être nécessaire pour le suivi d’un personnage, de profil.

De plus, on trouve les mouvements panoramiques qui sont des rotations de la caméra sur elle-même, il en existe aussi 3 types : la caméra est fixe et tourne sur elle-même de gauche à droite (sur un plan horizontal), la caméra pivote vers le haut et vers le bas, soit verticalement (cela peut être utile pour le suivi du décollage d’un appareil par exemples, ou plein d’autres situations). Le dernier cas (plan vertical) est la rotation sur elle-même de la caméra sans faire bouger l’objectif dans l’espace, c’est donc la scène qui va pivoter à l’écran.
Ces 6 mouvements sont les principaux mais on peut en créer plein d’autres pour des situations spécifiques en combinant plusieurs de ces mouvements. Par exemple, on obtient un « travelling circulaire » en utilisant un mouvement de travelling latéral (soit droite soit gauche) et un mouvement panoramique de plan horizontal (la caméra tourne sur elle-même vers la gauche si le travelling se fait vers la droite et vice-versa). On peut appeler ce mouvement « orbite » car c’est comme un satellite qui tourne autour d’une planète (en l’occurrence c’est la caméra qui pointe vers le sujet en faisant cette trajectoire d’arc de cercle). Cela peut être nécessaire pour garder une proximité avec le sujet tout en dévoilant aux spectateurs tout ce qui l’entoure.

formation

Colorimétrie

Abordons maintenant le sujet des couleurs car celles-ci sont plus importante que vous ne le pensez dans une photo.

color fan, multicoloured, color picker, fanned out, wheel, semicircle, color palette, color fan, color fan, color fan, color fan, color fan, color picker, semicircle, semicircle, semicircle, color palette, color palette, color palette

Couleurs et significations

Que ce soit en photographie en vidéo ou dans d’autres domaines les couleurs peuvent être assignées à des émotions, à des sentiments et ont chacune des significations. Le noir correspond en général à l’élégance, à l’autorité mais peut aussi correspondre au mal. En opposition, le blanc exprime l’innocence et la pureté. Le rouge peut être interprétée comme l’amour, l’envie mais aussi la colère, pour le bleu c’est la tranquillité, la liberté (en faisant le rapprochement avec la mer et son horizon ou le ciel), le froid ou encore des aspects plus tristes comme la dépression. Pour le vert, les significations associées sont la nature, la fraîcheur, la richesse ou la fertilité, le jaune sera plutôt associé à la gaieté et l’optimisme, le violet à la royauté, au luxe (précieux) et pour finir le marron correspondra à l’authenticité et la nostalgie (lien avec les racines et la terre, de la même couleur). La connaissance des interprétations peut être utile à la fois lors de la prise de vue mais aussi en post-production (des retouches de la photo, au niveau des couleurs) en choisissant de faire ressortir telle couleur pour exprimer tel message.

Balance des blancs

Comme on le disait tout à l’heure, une des interprétations associées au bleu est le froid, cette question de chaleur de l’image ou non est aussi essentiel dans une photo. Les appareils ont souvent un réglage qui va permettre d’ajuster la teinte de l’image pour éviter une lumière qui ne parait pas naturelle ou justement chercher à accentuer un effet. Ce réglage s’appelle la balance des blancs et se note en Kelvin (K), c’est la « chaleur » de l’image. La balance des blancs va d’environ 2000 Kelvin, soit un rendu rouge-orange (lumière très chaude) à 7000 Kelvin soit une lumière froide et « bleutée ».

Il peut être intéressant de jouer sur les couleurs et la balance des blancs, même s’il ne faut pas non plus en abuser car des rendus trop saturés (couleurs trop vives) paraissent irréelles et donc mensonger (de l’herbe trop verte, modifiée grâce à une hausse de la saturation de l’image par exemple).

Formats de compression

Afin d’exploiter au mieux les couleurs d’une image et d’avoir plus de liberté pour retoucher la composition on peut utiliser des formats de vidéos qui permettent d’enregistrer plus d’informations sur les couleurs de l’image. Des « codecs » sont des outils qui vont permettre d’encoder les données de ces images, afin de pouvoir les exploiter plus tard, si le photographe souhaite modifier la photo. Pour pouvoir avoir cette liberté de modification colorimétrique il va donc falloir cocher le codec voulu avant la prise de la vidéo, mais la vidéo sera alors beaucoup plus volumineuse, car ce codec permet d’enregistrer plus d’informations. Il existe par exemple le H264, le RAW ou encore les fichiers Pro Res (dont l’utilisation est possible sur iPhone ou sur certains appareils photo). Tout cela va influencer le nombre de couleurs total possible que la vidéo pourrait potentiellement enregistrée mais il n’est pas forcément nécessaire d’en utiliser, cela va dépendre de la vocation du contenu et surtout de la volonté ou non de faire des retouches ultérieures sur des logiciels (seule façon d’exploiter ces informations supplémentaires). On retrouve la même chose en photographie avec notamment les fichiers Raw qui seront aussi plus volumineux que des photos banales.

formation

Drones

Parmi les outils essentiels des passionnés de photo et vidéo, on trouve le drone. Cet objet s’est développé de façon importante ces dernières années et s’est imposé comme un appareil primordial afin d’obtenir des plans originaux. Que ce soit pour des photos aériennes d’un bâtiment, pour le suivi d’un sujet par les airs ou dans plein d’autres situations. Les drones sont le moyen le plus efficace d’y parvenir. Il en existe 2 sortes, les drones « stabilisés » plus basiques et les drones FPV.

Stunning aerial shot of a winding coastal road in Hawaii with vibrant ocean waves.

Les drones « stabilisés » sont des drones équipés de capteurs de positions qui vont avoir une bonne résistance au vent (cela dépendra de la puissance des modèles et de leur poids) et vont servir à faire des plans stables, comme le ferait une caméra (les mouvements de la caméra peuvent s’apparenter à ceux que peut faire le drone), mais dans les airs. Le rendu est professionnel et généralement assez lent dans la plupart des cas. Les drones FPV, quant à eux, se commande rarement avec une manette et un retour visuel inclus dans celle-ci comme la première catégorie, mais avec une manette spécifique dont les commandes sont différentes et un casque FPV (qui signifie First Person view car l’utilisateur voit la même chose que le drone, c’est comme s’il se trouvait à l’intérieur). Le fait d’avoir un casque va permettre de voir avec plus de précision et les pilotes vont pouvoir se permettre de faire des plans plus dynamiques, plus osés qui demandent beaucoup de maîtrise et ne sont pas possible avec des drones « stabilisés » (passer dans un espace étroit à grande vitesse ou éviter un arbre au dernier moment par exemple). Cela est seulement possible grâce à une puissance plus importante de ces drones et une réactivité entre les commandes et les moteurs très impressionnante.

Commandes

Mais comment parvient-on à faire voler physiquement un drone ? Le drone utilise ses hélices pour appliquer une force en direction du sol, cela lui permet alors de « s’écarter » de celui-ci (principe physique d’action et de réaction), donc de voler. Il faut que cette poussée de l’air vers le bas, soit supérieure au poids du drone (par une rotation encore plus importante des hélices) pour qu’il décolle. Si on souhaite ensuite le faire descendre, une commande va permettre de baisser « les gaz » et de faire tourner les hélices moins rapidement.

A drone in silhouette against a vibrant orange sunset sky, showcasing modern technology and aerial photography.

Maintenant si on veut le faire partir vers l‘avant ou l’arrière (appelé axe de tangage, le pitch). C’est aussi une histoire d’ajustement de la vitesse de rotation des hélices car si on veut faire voler le drone vers l’avant, il faut que les 2 moteurs situés à l’arrière tournent plus vite que les 2 de devant, de façon à ce que le drone soit incliné (penché vers l’avant).

mavic 2, drone, dynamic, action, bokeh, blurred, technology, mavic, dji, tilt, sharp turn, nature, alster meadow, meadow, landscape, drone, drone, drone, drone, drone

C’est exactement la même chose pour aller vers l’arrière ou même vers la gauche ou la droite (pour aller vers la droite, il faut que les 2 moteurs de gauche tournent plus vite, le drone enverra donc plus de force vers le sol à gauche et sera penché vers la droite, ce qui permettra ce déplacement). L’axe autour duquel le drone tourne pour aller à droite ou à gauche se nomme l’axe de roulis (roll) et se situe sur le joystick de droite de la télécommande (comme le pitch).

Close-up of a modern quadcopter drone hovering outdoors with blurred greenery background.

Pour tourner sur lui-même (axe de lacet, yaw à l’horizontal sur le joystick gauche de la télécommande), la démarche est un peu différente. Pour commencer il faut savoir que les moteurs, et donc les hélices ne tournent pas toutes dans le même sens ; les 2 paires d’hélices, situées en diagonale, vont tourner dans le même sens (en sens horaire pour les 2 premières et en sens anti-horaire pour les 2 suivantes) pour éviter que le drone effectue sans cesse des rotations sur lui-même qui sont dû aux couples. Afin de le faire tourner on va alors réduire la vitesse des deux moteurs en diagonale, ce qui va réinstaurer une rotation naturelle du drone (les couples des moteurs ne seront plus équilibrés). Si on veut que le drone tourne en sens horaire, il faut logiquement que les 2 moteurs qui tournent le plus rapidement soient ceux qui tournent dans le sens horaire et vice-versa.

formation

Commandes

Ces quatre commandes permettent d’amener le drone n’importe où et de le diriger dans toutes les directions, dans la limite de la distance maximum de liaison entre l’émetteur, la radiocommande, et le récepteur sur le drone.

Composants drones

La plupart des drones « stabilisés » sont achetés déjà fait en ligne ou dans des magasins mais pour les drones FPV, une partie importante de ceux-ci sont fabriqués par les utilisateurs eux-mêmes. Cela va permettre de réduire le coût d’un drone FPV (qui sera forcément plus cher que les autres) mais aussi de pouvoir changer plus facilement les pièces en cas de casse. Il est nécessaire d’avoir un peu de connaissances en électricité (la construction nécessite des soudures à l’étain), informatique et d’avoir une maîtrise des éléments qui composent ce drone. Faisons un rapide tour des composants d’un drone FPV (un drone stabilisé aura généralement des composants similaires même si les caractéristiques ne seront pas les mêmes).

Batterie + ESC

A l’intérieur du drone on trouve une batterie pour alimenter l’ensemble (en général une batterie de type lipo, pour lithium polymère), qui est rattachée à une carte électronique appelé ESC. Cette carte va permettre de réguler la puissance générée par les 4 moteurs (qui sont donc tous les 4 liés par des fils électriques à la carte).

FC

En général le drone possède une deuxième carte (il existe des configurations différentes), qui va être la carte FC qui signifie contrôleur de vol. Celle-ci va récupérer et envoyer les informations nécessaires au pilotage.

Systèmes de transmission

Elle va gérer l’ensemble des données grâce à sa liaison au récepteur (Rx) qui reçoit les commandes de la télécommande (Tx) et grâce à sa liaison au système vidéo (Vtx qui envoie les informations reçues par la caméra au casque FPV).

Résumé

En résumé, on trouve une alimentation qui est la batterie, des systèmes d’échange d’informations (un pour la vidéo et un pour les commandes du drone) reliés à une carte principale et une deuxième carte qui relie cet élément et la batterie aux moteurs pour les contrôler (sur lesquels sont vissés des hélices).

Une fois, cette phase de construction terminée, il existe des logiciels et plateformes (comme betaflight) qui vont permettre de paramétrer le drone en fonction de ses choix.

formation

Conclusion

Voilà, c’est terminé ! Cette formation que nous avons mis en ligne sera peut-être développer au fur et à mesure du temps. Pour le moment nous avons tenté de faire un survol des propriétés et des bases de la photographie ainsi que de la vidéo. Bien évidemment rien de tout cela n’est complet mais si un de ces sujets vous intéresse particulièrement, vous pouvez trouver beaucoup d’explications plus poussées sur internet (des tutos Youtube par exemple pour toute la partie création de drone si cela vous donne envie). J’espère que ces informations vous ont plu et n’hésitez pas à nous proposer des améliorations, des modifications…

Retour en haut