

Attention aux différentes montures existantes si vous souhaitez acheter un appareil photo ! Sur le marché des appareils photos, des marques vont avoir leur propres montures (on ne va pas pouvoir assembler tous les objectifs avec tous les types de boîtiers car le montage sera parfois différent).
C’est donc important de vérifier et de se renseigner sur la monture du boîtier, si on souhaite acheter un objectif supplémentaire pour son appareil photo.

Pose longue
La pose longue est un principe permettant d’obtenir des effets sur ses photos sans avoir recours aux retouches après la prise de vue. Il suffit d’augmenter le temps d’obturation pendant lequel est pris l’image et de le régler sur plusieurs secondes (voire plusieurs minutes). Cela va être utile pour obtenir des images transmettant un effet de vitesse notamment des traits lumineux derrière les véhicules correspondants aux phares (même chose pour des trainées au niveau de chaque étoile puisque celles-ci sont en mouvement mais il faudra un temps encore plus long). Une des autres utilisations les plus connues des poses longues est le cas de l’eau en mouvement parce que l’on peut obtenir des cours d’eau très lisses, très fluides donnant un aspect fantastique (cela supprime tous les petits éléments tel que les gouttes car celles-ci deviennent sans importance sur une échelle de plusieurs secondes). On peut voir ce procédé comme une sorte de « moyenne » d’une rafale d’images qui aurait été prise pendant la même période. Cependant, il vous sera assez compliqué d’obtenir le résultat voulu dès le premier coup, le rendu est parfois très incertain : expérimentez, recommencez encore et encore jusqu’à avoir l’image attendue !
Pour conclure ces explications sur le triangle d’exposition, comparons le triangle d’exposition à un verre d’eau. La vitesse d’exposition serait la durée pendant laquelle l’eau coule pour remplir le verre, plus celle-ci est longue plus le verre contiendra d’eau. L’ouverture correspondrait à la taille de l’ouverture du robinet (plus celle-ci est grande plus le verre va se remplir) tandis que la sensibilité serait la taille du verre, plus le verre est grand plus il faudra d’eau pour le remplir (ce qui correspond à une sensibilité basse, peu d’ISO, et pas l’inverse !). Ces trois paramètres permettent de remplir correctement le verre d’eau (dans notre cas ils permettent d’ajuster correctement l’exposition de la photo). Si le verre est rempli, sans déborder, c’est comme si on arrivait à obtenir une bonne exposition sans zone trop sombre et sans zone complètement blanche où l’on ne peut rien distinguer.


L’exposition peut aussi être modifiée grâce à un réglage « d’EV », qui va compenser une mauvaise exposition en « éclaircissant » ou en « assombrissant » l’ensemble de l’image. L’appareil photo détermine lui-même si la photo est bien exposée ou pas, mais il faut parfois avoir recours à ces réglages soi-même car l’évaluation n’est pas toujours correcte. Pour cela on peut s’aider de diagrammes, des histogrammes qui vont représenter les différents niveaux de gris de l’image et permettre de se rendre compte de l’exposition (si les colonnes sont plus hautes et atteignent des pics aux extrémités du diagramme c’est que la photo est mal exposée ; surexposée si c’est à gauche, ou sous-exposée si c’est à droite).
Les stops
L’unité de mesure permettant de modifier un paramètre pour parvenir à rééquilibrer l’exposition s’appelle le stop. La plage dynamique d’un appareil photo (se situe entre la zone la plus sombre et la zone la plus lumineuse que l’appareil parvient à enregistrer sur une même image) se compte donc en stop. C’est un très bon indice pour comparer et connaître les capacités d’un appareil photo.
Pour faire simple, si l’on double la valeur de la zone la plus lumineuse de notre image et que l’on parvient quand même à distinguer correctement la zone la plus sombre, la plage dynamique est de 1 stop.
Si on arrive à voir nettement sans perte d’informations, l’élément le plus sombre, alors qu’on a multiplié par 4 la zone la plus claire, il y a 2 stops.
Cela marche pour chacun des 3 paramètres d’exposition, par exemple, si on multiplie la valeur de l’ISO par 2 on obtient 1 stop et maintenant si on souhaite que l’image soit parfaitement exposée on va venir soustraire un stop sur un autre réglage (la vitesse d’obturation que l’on va donc diviser par 2).





Le mode choisi dépend du rendu que souhaite le photographe, de l’image qu’il souhaite capturer et peut varier d’une photo à l’autre. Il est préférable de s’occuper d’un seul réglage sur les 3 si on a encore du mal à maîtriser la compensation avec les autres, qui permet une bonne exposition.
La distance focale est la longueur qui sépare la lentille (le bout de l’objectif puisque chacun comporte plusieurs lentilles successives) au capteur de l’appareil photo. Elle se compte en général en millimètres et va permettre d’indiquer la capacité de zoom de l’objectif mais aussi l’angle de prise de vue que va permettre l’objectif. Il en existe des fixes, où aucun recadrage ne sera possible en direct, et des objectifs avec une plage focale allant d’un certain nombre de millimètres à un autre. Les objectifs avec des valeurs de focales inférieures à 35mm sont considérés comme « ultra grand angle » et offre des plans très larges, les objectifs situés entre 35 et 70mm sont standards, et ceux avec des valeurs supérieures font partie de la catégorie « téléobjectif » (avec un angle de vue très restreint, seulement quelques degrés, pour se focaliser sur un détail de la scène). Cependant, il n’y a pas de relation exacte et universelle entre les longueurs focales et les valeurs de grossissement (x3, x5 que l’on peut trouver sur les smartphones ou des petits appareils photos compacts). Cela est propre à chaque appareil, et les rendus avec une même plage focale peuvent varier en fonction de la taille des capteurs par exemple.
On pourrait croire que le fait de se rapprocher d’un sujet pour le prendre en photo ou le fait de s’éloigner et de zoomer en direction de celui-ci pourrait permettre d’obtenir un rendu similaire mais ce n’est pas le cas, détrompez-vous ! Ce qu’on appelle la « téléphoto compression » est le fait que plus la distance entre le sujet et le photographe est importante, plus l’arrière-plan et le sujet vont paraitre proche (pour comparer il va évidemment falloir utiliser le zoom, soit une distance focale plus importante sur cette scène).

Cet effet va permettre, premièrement d’apporter un beau flou d’arrière-plan, et deuxièmement de rapprocher des éléments qui sont en réalité loin l’un de l’autre. On peut alors jouer sur les échelles des objets et leurs tailles perçues par les personnes qui regarderont l’image. Il est important de rajouter que cela va avoir un impact sur la morphologie d’un visage par exemple, car celui-ci paraitra plus « carré » ou plus large à une distance plus importante.
Ce sont des filtres matériels très utilisés dans tout le domaine de la vidéo. On place ces éléments au bout de l’objectif, en les clipsant, et il en existe aussi pour les caméras d’action, les téléphones ou les drones. L’intérêt principal de ces filtres est d’assombrir l’image et de faire rentrer moins de lumière dans le capteur. Grâce à cela, on peut capturer des images plus « longues » lors des vidéos (chaque image est prise avec une vitesse d’obturation moins grande, en cohérence avec la règle des 180 degrés expliquée juste après), sans avoir des prises de vue trop lumineuses. On obtient alors des images avec un flou de mouvement, et donc une vidéo qui va paraître plus fluide, plus agréable à regarder.

Tout d’abord qu’est-ce qu’une vidéo ? C’est la succession rapide d’images, qui nous permet alors de visualiser un mouvement, une action. Ce nombre d’images va être appelé « fps » ou « ips » en français et correspond au nombre d’images qui vont passer sur l’écran en 1 seconde.
En général, un rendu fluide (cela ne dépend pas que du nombre d’images par seconde comme nous le verrons juste après) nécessite une vingtaine d’images par seconde voir plus. Par exemple les films diffusés au cinéma vont paraitre en 24 ips, les journaux télévisés et l’ensemble des programmes en Europe sont en 25 ips (ce qui correspond aux normes européennes, format PAL). Aux Etats-Unis et au Japon les diffusions web et TV sont en général en 30 ips, ce qu’on appelle le format NTSC. Il faut donc prendre en compte ceci lorsqu’on souhaite filmer et diffuser du contenu ; le changement de nombre d’fps est possible mais ce n’est pas recommandé (parmi les 25 images il faudrait qu’une d’entre elle soit supprimée quelque part pour obtenir une vidéo en 24 images par seconde). Les caméras d’action, certains appareils photo et les téléphones permettent de choisir quel nombre d’images par seconde et quel format nous souhaitons, dans la limite des capacités du capteur et de la gestion des données qui y est liées.

Filmer avec un nombre d’images par seconde plus important que 30 va servir à obtenir des ralentis sur les séquences filmées (tel que la course d’un athlète, le saut ou la figure aérienne d’un skateur). Logiquement, si on veut un ralenti X2 sur la séquence (c’est à dire que ce que l’on va voir à l’écran pendant 2 secondes aura en réalité duré seulement 1 seconde) et avoir une vidéo finale en 24 fps, il va falloir filmer en 48 images par seconde (24 x 2). De même lorsque l’on veut un ralenti par 4, toujours avec une vidéo finale en 24 fps, il faut filmer en 96 fps (24 x 4). C’est exactement la même chose si on veut 25 fps, 30 fps ou plus en sortie. Les appareils ne vont pas tous offrir la même présentation d’un mode « ralenti » mais dans l’ensemble si vous avez besoin de connaitre la fréquence de captation à utiliser, ce sera la même démarche de calcul.

Pour finir, la fluidité ne va pas dépendre seulement de cette fréquence d’images par seconde, mais aussi du contenu de chacune de ces images. Si chacune des photos de la vidéo est prise avec un temps d’obturation très court, on va obtenir des images fixes et entièrement nettes comme on a pu le voir dans la partie « triangle d’exposition ». Cependant si chacune des images est très nette, la vidéo va paraître saccadée et ne sera pas forcément agréable à regarder : elle ne va pas paraitre naturelle. Afin de gagner en fluidité on va chercher à obtenir un beau flou de mouvement (chacune des images sera la suite de l’autre et il y aura moins cet effet de coupure). Pour cela, on utilise la règle des 180° où l’on va calibrer le shutter (la vitesse d’obturation) sur 1 divisé par le double de la fréquence d’images. Prenons l’exemple d’une vidéo à 25 fps ; si on veut respecter la règle des 180°, il faut choisir de calibrer la vitesse de prise de vue sur 1/50ème (même chose pour toutes les autres fréquences d’images, 30 fps correspond à 1/60 ou encore 45 fps correspondrait à 1/90…). En général sur les appareils, la vitesse d’obturation lors des vidéos est déjà mise en place et c’est un détail (des modes plus professionnels peuvent permettre de le faire manuellement) mais il est quand même important de le savoir et de comprendre que la fluidité ne découle pas seulement des fps.
Parlons maintenant des résolutions et de l’acronyme qui leur est attribué. La résolution HD, très courante, est aussi appelée 720p ce qui signifie que l’image va contenir 720 lignes de pixels (720 x 1280 pixels au total). Ensuite, si on prend une vidéo en 4K, il y aura 2160 pixels de largeur pour 3840 en longueur (aussi nommée 2160p).
Ces résolutions sont les plus connues et les plus utilisées (la 4K se développe de plus en plus aujourd’hui) mais il en existe plein d’autres comme les vidéos de qualité Full HD (1920 x1080) ou encore la 8K (7680 x4320) qui n’est pas encore trop exploitée pour le moment. Filmer en 4K offrira donc des fichiers plus détaillés mais plus volumineux qu’en HD par exemple, le choix d’une résolution plutôt qu’une autre va dépendre de l’utilité finale du contenu (et parfois de la place restante dans la mémoire de l’appareil !). Pour que les fichiers ne soient pas trop lourds, on compense généralement en baissant le nombre d’images par seconde et inversement.

Si on veut filmer en 120 fps on aura tendance à utiliser une résolution plus faible, si on souhaite que le fichier ne soit pas trop volumineux. Pour l’ensemble de ces résolutions, le ratio est toujours le même ; « 16 : 9 » soit une longueur de 16 pour 9 de largeur (on peut vérifier cela en utilisant le nombre de pixels d’une résolution ; par exemple en HD, avec 720 de largeur, si on fait 720/9 x 16 on obtient bien les 1280 colonnes de pixels). La majorité des vidéos sont dans ce format 16 : 9 qui est propice à des plans plus « cinématique », l’image est assez longue et va permettre de placer plus facilement des sujets pour un dialogue par exemple.




Pour amener un dynamisme plus important à la scène on peut aussi utiliser les mouvements de caméra. Attention par contre à rendre ceux-ci fluides et non saccadés (à moins que ce soit l’effet escompté; une scène où l’on veut montrer le chaos ?), à l’aide d’une stabilisation numérique, d’un stabilisateur mécanique ou encore d’un objet roulant sur lequel est situé la caméra (ce dernier est utile seulement pour les travellings). Un travelling est un déplacement rectiligne, il en existe principalement 3 types (qui correspondent aux 3 dimensions), le travelling avant/ arrière où l’on va donc par exemple déplacer la caméra vers l’avant afin de suivre la marche d’un personnage de dos. Pour revenir à la partie abordant l’effet de la distance focale, il ne faut pas confondre ce travelling avant avec le fait de zoomer progressivement sur le sujet (appelé travelling optique) car les 2 résultats seront très différents. Le travelling vertical (haut ou bas) et enfin le travelling latéral (gauche ou droite) qui peut être nécessaire pour le suivi d’un personnage, de profil.


De plus, on trouve les mouvements panoramiques qui sont des rotations de la caméra sur elle-même, il en existe aussi 3 types : la caméra est fixe et tourne sur elle-même de gauche à droite (sur un plan horizontal), la caméra pivote vers le haut et vers le bas, soit verticalement (cela peut être utile pour le suivi du décollage d’un appareil par exemples, ou plein d’autres situations). Le dernier cas (plan vertical) est la rotation sur elle-même de la caméra sans faire bouger l’objectif dans l’espace, c’est donc la scène qui va pivoter à l’écran.
Ces 6 mouvements sont les principaux mais on peut en créer plein d’autres pour des situations spécifiques en combinant plusieurs de ces mouvements. Par exemple, on obtient un « travelling circulaire » en utilisant un mouvement de travelling latéral (soit droite soit gauche) et un mouvement panoramique de plan horizontal (la caméra tourne sur elle-même vers la gauche si le travelling se fait vers la droite et vice-versa). On peut appeler ce mouvement « orbite » car c’est comme un satellite qui tourne autour d’une planète (en l’occurrence c’est la caméra qui pointe vers le sujet en faisant cette trajectoire d’arc de cercle). Cela peut être nécessaire pour garder une proximité avec le sujet tout en dévoilant aux spectateurs tout ce qui l’entoure.
Abordons maintenant le sujet des couleurs car celles-ci sont plus importante que vous ne le pensez dans une photo.

Couleurs et significations
Que ce soit en photographie en vidéo ou dans d’autres domaines les couleurs peuvent être assignées à des émotions, à des sentiments et ont chacune des significations. Le noir correspond en général à l’élégance, à l’autorité mais peut aussi correspondre au mal. En opposition, le blanc exprime l’innocence et la pureté. Le rouge peut être interprétée comme l’amour, l’envie mais aussi la colère, pour le bleu c’est la tranquillité, la liberté (en faisant le rapprochement avec la mer et son horizon ou le ciel), le froid ou encore des aspects plus tristes comme la dépression. Pour le vert, les significations associées sont la nature, la fraîcheur, la richesse ou la fertilité, le jaune sera plutôt associé à la gaieté et l’optimisme, le violet à la royauté, au luxe (précieux) et pour finir le marron correspondra à l’authenticité et la nostalgie (lien avec les racines et la terre, de la même couleur). La connaissance des interprétations peut être utile à la fois lors de la prise de vue mais aussi en post-production (des retouches de la photo, au niveau des couleurs) en choisissant de faire ressortir telle couleur pour exprimer tel message.
Balance des blancs
Comme on le disait tout à l’heure, une des interprétations associées au bleu est le froid, cette question de chaleur de l’image ou non est aussi essentiel dans une photo. Les appareils ont souvent un réglage qui va permettre d’ajuster la teinte de l’image pour éviter une lumière qui ne parait pas naturelle ou justement chercher à accentuer un effet. Ce réglage s’appelle la balance des blancs et se note en Kelvin (K), c’est la « chaleur » de l’image. La balance des blancs va d’environ 2000 Kelvin, soit un rendu rouge-orange (lumière très chaude) à 7000 Kelvin soit une lumière froide et « bleutée ».
Il peut être intéressant de jouer sur les couleurs et la balance des blancs, même s’il ne faut pas non plus en abuser car des rendus trop saturés (couleurs trop vives) paraissent irréelles et donc mensonger (de l’herbe trop verte, modifiée grâce à une hausse de la saturation de l’image par exemple).
Formats de compression
Afin d’exploiter au mieux les couleurs d’une image et d’avoir plus de liberté pour retoucher la composition on peut utiliser des formats de vidéos qui permettent d’enregistrer plus d’informations sur les couleurs de l’image. Des « codecs » sont des outils qui vont permettre d’encoder les données de ces images, afin de pouvoir les exploiter plus tard, si le photographe souhaite modifier la photo. Pour pouvoir avoir cette liberté de modification colorimétrique il va donc falloir cocher le codec voulu avant la prise de la vidéo, mais la vidéo sera alors beaucoup plus volumineuse, car ce codec permet d’enregistrer plus d’informations. Il existe par exemple le H264, le RAW ou encore les fichiers Pro Res (dont l’utilisation est possible sur iPhone ou sur certains appareils photo). Tout cela va influencer le nombre de couleurs total possible que la vidéo pourrait potentiellement enregistrée mais il n’est pas forcément nécessaire d’en utiliser, cela va dépendre de la vocation du contenu et surtout de la volonté ou non de faire des retouches ultérieures sur des logiciels (seule façon d’exploiter ces informations supplémentaires). On retrouve la même chose en photographie avec notamment les fichiers Raw qui seront aussi plus volumineux que des photos banales.
Parmi les outils essentiels des passionnés de photo et vidéo, on trouve le drone. Cet objet s’est développé de façon importante ces dernières années et s’est imposé comme un appareil primordial afin d’obtenir des plans originaux. Que ce soit pour des photos aériennes d’un bâtiment, pour le suivi d’un sujet par les airs ou dans plein d’autres situations. Les drones sont le moyen le plus efficace d’y parvenir. Il en existe 2 sortes, les drones « stabilisés » plus basiques et les drones FPV.




Ces quatre commandes permettent d’amener le drone n’importe où et de le diriger dans toutes les directions, dans la limite de la distance maximum de liaison entre l’émetteur, la radiocommande, et le récepteur sur le drone.

Une fois, cette phase de construction terminée, il existe des logiciels et plateformes (comme betaflight) qui vont permettre de paramétrer le drone en fonction de ses choix.
Voilà, c’est terminé ! Cette formation que nous avons mis en ligne sera peut-être développer au fur et à mesure du temps. Pour le moment nous avons tenté de faire un survol des propriétés et des bases de la photographie ainsi que de la vidéo. Bien évidemment rien de tout cela n’est complet mais si un de ces sujets vous intéresse particulièrement, vous pouvez trouver beaucoup d’explications plus poussées sur internet (des tutos Youtube par exemple pour toute la partie création de drone si cela vous donne envie). J’espère que ces informations vous ont plu et n’hésitez pas à nous proposer des améliorations, des modifications…