Nous voilà de retour pour le troisième épisode de ce grand dossier de l’été consacré à la photo.

Aujourd’hui nous allons nous pencher sur le cœur des appareils photo, leur capteur et leurs objectifs, sans lesquels aucune photo ne serait possible.

Si vous avez manqué les deux premiers épisodes, je vous invite à regarder la liste ci-dessous:

Et maintenant, entrons dans le vif du sujet…

L’objectif

C’est certainement la pièce la plus importante d’un appareil photo. Bien plus importante que le capteur et son nombre de pixels, même plus importants que le boitier en lui-même.

Pourquoi?

Car c’est grâce à lui que vient la qualité de l’image.

Si on a le meilleur capteur du monde et qu’on lui met devant un objectif horrible, la photo sera à la hauteur de la qualité de l’objectif.

C’est grâce à lui que les plus fins détails d’une image peuvent être conduits ou non jusqu’au capteur. (Dont je vais parler plus bas).

L’objectif a pour mission de focaliser l’image sur le capteur, la partie sensible de l’appareil photo.

La quantité de lumière très importante pour l’exposition (que l’on verra a la prochaine leçon) est directement en rapport avec l’objectif. Comme on le verra dans la prochaine leçon, c’est le diaphragme, qui se trouve dans l’objectif même, qui laisse passer plus ou moins de lumière.

Un objectif est composé de plusieurs lentilles. Elles ont pour but de « travailler » la lumière afin que celle-ci arrive de la meilleure façon jusqu’aux parties sensibles du capteur, ou du film. Bien entendu elles sont aussi là pour donner « l’angle de champ » cette notion que l’on connaît plus facilement sous le terme de « zoom »

C’est en fait l’impression que l’on a de voir l’image « rapprochée « 

Je ne vais pas entrer dans les notions d’optique pour expliquer cette particularité, car ce serait très compliqué, et surtout pas très intéressant pour ceux qui ne sont pas fans du sujet.

Donc, les lentilles sont là pour donner de l’angle de champ, mais aussi pour empêcher quelque comportement bizarre de la lumière (réfraction, diffraction, aberration chromatique…etc) ces comportements bizarres sont en fait dû à la fréquence de chaque couleur qui leur est propre, en gros le rouge n’aura pas la même fréquence que le bleu …etc

De par ce fait, elle n’arrive pas sur un plan égale au même endroit du « plan focal » et sans correction de lentille spécialisée, on aurait des auréoles de différentes couleurs selon la luminosité et les sujets (d’ailleurs, certains objectifs de mauvaise qualité ne corrigent pas ces aberrations chromatiques d’une façon idéale)

Il y a encore tout un tas d’autres petits problèmes d’optique que les objectifs devraient compenser grâce à leur lentille. Mais nous allons laisser cela de côté.

Vous aurez donc compris que la chose la plus importante dans un appareil photo est l’objectif.

Si vous n’avez pas encore d’appareil photo fait bien attention à cela, plus loin dans le dossier de l’été je donnerais une explication sur « l’ouverture » des objectifs et vous comprendrez alors comment vous orienter dans le choix d’un appareil.

Le capteur

C’est grâce au capteur CCD ou CMOS que sur un appareil numérique on obtient des images!

La première chose à savoir, c’est que le nombre de pixels (ou de photosite pour être plus juste) n’est pas un gage de qualité, bien au contraire.

Mais avant de vous en faire la démonstration, petite explication facile de comment ça fonctionne.

Un capteur est composé d’une matrice de photosites (ce que tout le monde nomme par erreur pixel) qui sont des éléments photosensibles. Ces éléments sont basés sur un système photoélectrique. En simplifier, la lumière est composée de photons. Ces photons vont venir dans une sorte de puits (le photosite) en arrivant dans ce puis un photon va arracher un électron. Cette information va alors être transformée en signal électrique analogique. Puis encodée de façon numérique.

Si je résume pour chaque photon qui touche le capteur, celui-ci grâce au procédé expliqué ci-dessus, donne au processeur (l’ordinateur de l’appareil) l’endroit exact où cela s’est passé, la quantité de lumière qui est arrivée.

Du coup grâce à ces informations l’image se forme.

Sauf que celle-ce se forme en Noire&Blanc…Hé oui un capteur est daltonien!

Naturellement, ces capteurs sont sensibles à l’ensemble du spectre de la lumière visible. Grâce à un filtre, dit de Bayer, constitué de cellules colorées des couleurs primaires, chaque photosite ou pixel du capteur ne voit qu’une seule couleur : rouge, vert ou bleu. Sur chaque groupe de 4 photosites on trouve un pour le bleu, un pour le rouge et deux pour le vert ; cette répartition correspond à la sensibilité de notre vision.

C’est le logiciel de l’appareil photo qui va recréer les couleurs, en tenant compte des courbes de réponse spectrale pour un résultat final en trichromie

Pour finir, le plus important n’est pas le nombre de pixels, mais la taille de ces pixels (qui sont en réalité des photosites comme on vient de le voir) Car c’est la lumière qui donne l’information au capteur sur la « nature » de l’image. Plus il y a de lumière, meilleur est l’information.

Donc toute proportion gardée (je veux dire par là qu’un capteur de 1 million de pixels sera forcément moins bien qu’un de 4 millions) il vaut mieux un grand capteur de 12 millions de pixels avec de grands photosites pour qu’il puisse avoir une information « pertinente  » plutôt qu’un petit capteur de 18 millions de pixels, ou les photosites seront tellement petits qu’il y aura une perte réelle de définition.