Published On : 28 août 2019 |Last Updated : 8 mars 2021 |2851 words|12,2 min read|35 Commentaires on L’arnaque des mégapixels… ou pas|
Table des matières
  1. L’origine de la méprise
  2. Le pipeline, vous dis-je !
  3. Les mégapixels, c’est pour le traitement
  4. Le cas du bruit numérique
  5. Moralité(s)

Il y a un truc pénible, qui se produit presque systématiquement chez le photographe un peu geek qui se souvient de ses cours de physique de lycée, c’est qu’il est trop rapide pour donner son opinion technique sur des technologies qui demandent au minimum un BAC+3 en physique appliquée pour seulement commencer à entrapercevoir de quoi ça cause.

Donc, aujourd’hui, on s’attaque à la croyance de tout bon photographe pragmatique :

24, 36, 52 Mpx de définition, dans un appareil photo, ça ne sert à rien : on imprime à 6 Mpx gros maximum. Ducon-Lajoie, polytechnicien de surface

À quoi on conclue doctement : « De toute façon, c’est juste du marketing #ObsolescenceProgrammée #SaloperieDeCapitalisme », et on achète quand même l’appareil qui a le plus de pixels, sans oublier d’en changer tous les 4 ans.

 

Pour des raisons de confidentialité YouTube a besoin de votre autorisation pour charger. Pour plus de détails, veuillez consulter nos Politique de confidentialité.
J'accepte

#L’origine de la méprise

L’œil humain emmétrope, c’est à dire jeune, en pleine forme et sans défaut de vue (myopie, astigmatisme et j’en passe), peut faire la mise au point sur un objet à une distance minimale de 25 cm (on appelle cette distance caractéristique le punctum proximum, et il s’allonge avec l’âge). À cette distance, pour un individu ayant 10⁄10 d’acuité visuelle, son cercle de confusion a un diamètre d’environ 0,1 mm (0,00393701 pouce). Concrètement, ça signifie que deux points noirs de moins de 0,1 mm de diamètre dessinés l’un à côté de l’autre à une distance de moins de 0,1 mm sur une feuille blanche observée à 25 cm sont vus comme une seule tache grise : ils se confondent.

L’œil humain emmétrope a donc un pouvoir de résolution équivalent à 1 ÷ 0,00393701 = 254 points par pouce (ppp) ou dots per inch (dpi), au mieux, à 25 cm de distance. À noter, la résolution standard théorique d’une imprimante photo est 300 dpi minimum et celle d’un écran Apple Retina est entre 220 dpi (MacBook Pro 15”) et 458 dpi (iPhone X 5,8”).

Sachant que, pour la discrimination des couleurs, on a un champ de vision de 60 ° (encore une fois, pour un sujet jeune et en pleine forme), on peut donc regarder à cette distance un tirage de 28,9 cm (maximum) de large (11,4 pouces). Finalement, on a seulement besoin d’une image de 2900 pixels sur le plus grand côté, soit 2900×1933 pixels au format 3:2, soit 5,6 mégapixels. Donc un appareil photo de 16 Mpx et plus, ça ne sert à rien. CQFD.

Ça a l’air de se tenir. En plus c’est de l’optique de base, donc un peu de trigonométrie, et le tour est joué. Méfiez-vous, quand ça a l’air simple…

#Le pipeline, vous dis-je !

On rentre ici dans mon principal combat, en tant que développeur d’algorithmes de traitement d’image : séparer la vue de la manipulation, dans le logiciel et dans la tête des gens.

Le traitement d’une image passe par une succession d’étapes qui se déroulent dans un ordre défini par la physique. On le décrit par une métaphore plombière : les étapes sont des filtres, qui s’empilent en définissant un pipeline (conduite, en anglais), à travers lequel l’image « s’écoule ».

Il y a 3 temps forts dans ce pipeline :

  1. la capture de l’image, par le capteur et son électronique de conditionnement, dans l’appareil photo
  2. le traitement de l’image, par un logiciel (qui peut être soit directement dans l’appareil photo, soit dans un ordinateur)
  3. l’affichage de l’image, sur écran ou sur papier.

Ici, c’est seulement ce dernier temps fort, l’affichage, qui peut se contenter de 0.5 à 6 Mpx. Avant ça, il a le traitement. Le problème, c’est que les gens ne font pas de distinction, dans leur tête, entre le traitement et l’affichage, ce qui fait qu’ils n’hésitent pas à traiter une image encodée pour l’affichage (en JPEG 8 bits avec un gamma 2.2), alors qu’en toute rigueur, elle n’est plus dans un état traitable (enfin, le bricolage immonde reste autorisé, donc les gens font ce qu’ils veulent).

Et ce traitement, quel est-il ? Il y a l’ajustement des couleurs, du contraste, etc. mais la plus grosse partie consiste à récupérer les erreurs du capteur, en particulier le bruit numérique, et les déformations de l’objectif.

#Les mégapixels, c’est pour le traitement

Matrice de Bayer, utilisée par la plupart des capteurs d’appareils photo numériques. CC Wikipedia

Le traitement numérique, que ça soit pour le son, l’image ou n’importe quoi de physique, repose sur la discrétisation : vous photographiez une réalité continue, lisse et sans interruption (du moins, à l’échelle macroscopique), au moyen d’une grille qui découpe la scène en carrés élémentaires monochromatiques : les photosites. La photo brute est donc un simple enregistrement de l’intensité lumineuse à chaque photosite, stocké dans un tableau à double entrée.

La discrétisation du signal physique continu, qu’on appelle l’échantillonnage, est une opération destructive qui dénature le signal d’origine, puisque celui-ci n’est pas découpé comme ça en vrai. En effet, chaque photosite ne capture qu’une seule « couleur » primaire (ce n’est pas vraiment de la couleur, mais je ne vais pas rentrer dans le détail ici), et il faut donc passer par une opération informatique pour restaurer les deux informations chromatiques manquantes à chaque photosite et ainsi créer des pixels RGB valides. Cette opération utilise les valeurs connues des photosites voisins pour estimer par le calcul les valeurs manquantes (en maths, on appelle ça interpoler).

Le dématriçage est limité par le décalage des couches RGB dans le plan du capteur. CC Wikipedia

Le problème est qu’on a toujours un décalage dans le plan du capteur entre les 3 couches RGB, qui créée donc une erreur dans la reconstruction des pixels, à l’origine de moiré et d'aberrations chromatiques. On ne peut donc pas se contenter d’une simple interpolation, il faut en plus essayer de recaler les 3 couches RGB en les translatant dans le plan du capteur : c’est le dématriçage, qui se fait au prix d’algorithmes souvent complexes, lourds, lents et qui ne marchent pas toujours bien. La bonne nouvelle, c’est que plus la densité de photosites élevée (c’est à dire plus les photosites sont petits et rapprochés), plus on réduit cette erreur de décalage.

Le capteur CMOS du Nikon D2 H (sorti en 2004) grossi 10 ×. © Jack/The Landingfield
Le même capteur grossi 40×. Notez les espaces entre les photosites, de l’ordre de ⅕ de la taille d’un photosite. © Jack/The Landingfield

Ces photosites sont non seulement un saucissonnage artificiel de la réalité, mais, de plus, ils sont disjoints : on a quelques dizaines de nanomètres d’écart entre chaque photosite sur le capteur. La première conclusion est qu’on ne « voit » pas les portions de l’image formée par l’objectif qui « tapent » entre les photosites sur le capteur : elles passent entre les cellules de la grille. On peut alors calculer le facteur de remplissage du capteur, qui correspond à la surface du capteur qui capte effectivement de la lumière (la surface réelle des photosites) : pour ce vieux capteur, elle est inférieure à 60 %. Pour des capteurs plus récents, on peut s’arranger pour avoir un facteur de remplissage de 100 % en utilisant des micro-lentilles sur les photosites, mais ces lentilles provoquent une perte de netteté et vous les connaissez probablement mieux sous le nom de filtre passe-bas optique (OLPF), qui tend à disparaître sur les capteurs produits depuis 2012 (chez Nikon et Sony d’abord, puis Olympus, Fuji et Panasonic, le dernier à les conserver étant Canon).

Minh-Ly non dématricée vue en N&B.Minh-Ly dématricée en RGB avec l'algorithme Amaze.

Théoriquement, cette erreur s’annule si la taille des photosites tend vers la taille d’un photon et qu’on annule les espaces entre photosites. En pratique, on y est presque pour les espaces entre photosites, grâce aux capteurs rétro-éclairés, mais pour la taille d’un photon, ce n’est pas encore pour demain. Cependant, il existe un théorème, dit de Shannon-Nyquist, qui énonce que :

La représentation discrète d’un signal exige des échantillons régulièrement espacés à une fréquence d'échantillonnage supérieure au double de la fréquence maximale présente dans ce signal. Théorème de l’échantillonnage

Concrètement, ça veut dire que pour imprimer sereinement à 6 Mpx (en sortie), vous avez besoin au minimum d’une image brute (en entrée) de 24 Mpx (on double la largeur et la hauteur) pour être absolument sûr de ne pas avoir de problèmes liés au dématriçage. En dessous de 24 Mpx en entrée, ça peut quand même marcher, mais il y a plus de chances que ça se passe mal. Étonnamment, c’est la résolution standard en entrée de gamme, ces temps-ci. Marketing, on disait ? Moi j’appelle ça des gens qui savent ce qu’ils font. Mais le théorème de Shannon n’est pas enseigné au lycée, donc Jean-Michel J’ai-écouté-en-cours ne peut pas le savoir, avant d’en appeler à l’optique et au bon sens pour diffuser ses contre-vérités.

#Le cas du bruit numérique

Si vous lisez la presse photo, vous savez que les capteurs moins denses en photosites produisent moins de bruit que les plus denses, car, à taille égale, leurs photosites sont plus gros, et capturent donc plus de lumière. Donc, a priori, pour la photo de nuit, un Nikon D610 est meilleur qu’un D850. C’est évident, hein ?

Oui, mais souvenez-vous, il se passe un truc après la prise de vue : le traitement. Or il se trouve que, plus on a de pixels, plus les algorithmes qui débruitent ont la vie facile. Par exemple, l’algorithme utilisé par DXO Prime et darktable pour débruiter, l’un des meilleurs actuellement, vient de la thèse de doctorat de Antoni Buadès, sous la direction de Jean-Michel Morel, à l’ENS de Cachan (parce qu’en France, on est des bêtes en maths. Dommage qu’on ne les enseigne pas à l’école…).

En gros, le bruit numérique est un phénomène aléatoire, qui affecte des pixels isolés sans forcément affecter leurs voisins. Si je photographie 2 fois la même scène, je n’aurai pas deux fois les mêmes pixels bruités. Cette propriété est à l’origine d’une vieille méthode de débruitage, rudimentaire mais très efficace, qui consiste donc à prendre plusieurs clichés de la même scène, et à superposer les clichés (dans différents calques sur Photoshop, par exemple) en moyennant les valeurs des pixels entre eux. Ça marche bien, tant qu’on n’a pas de sujet mobile dans l’image, auquel cas cette méthode produit des « fantômes ».

L’idée des moyennes non-locales repose sur le même principe, mais dans une seule image. En effet, une image comporte généralement des motifs qui se répètent (tissus, peau, cheveux, fenêtres, grilles, etc.). On va donc découper l’image en patchs, et associer des patchs qui présentent des motifs similaires (en calculant la similarité par des méthodes statistiques), et faire la moyenne patch par patch au sein de la même image, pour diluer de bruit sans lisser les détails et perdre de la netteté (ce qui est le défi fondamental du débruitage).

Qui dit méthode statistique dit faux-positifs : des patchs identifiés à tort comme similaires, qui vont engendrer des modifications peu crédibles de la texture des surfaces (avec création de bruit à gros grain, notamment). Et bien devinez la suite… Plus on a de patchs, plus on réduit la probabilité de faux positif, et mieux ça marche. Donc plus la résolution est élevée, plus le débruitage est crédible (je n’ose pas dire naturel).

À taille de capteur constante, plus la résolution augmente, plus le bruit numérique augmente, mais mieux il se corrige par algorithmes.

Et puis, même avec une correction de bruit imparfaite, à partir du moment où vous divisez la résolution de sortie par 4, le bruit va se retrouvé noyé par effet secondaire.

#Moralité(s)

Leçon zéro : tout l’intérêt de la haute résolution, ce n’est pas de pouvoir afficher plus large (auquel cas, c’est plutôt un capteur plus grand qu’il faudrait), mais de s’en garder sous le pied pour mieux traiter l’image et alléger les problèmes de dématriçage, interpolation, bruit, etc. liés à l’échantillonnage d’un signal continu.

Première leçon : un photographe est un photographe, pas un ingénieur, et il faut vraiment que les gourous du tuto photo/vidéo qui ont pignon sur rue s’autocensurent avant de parler de techniques qu’ils ne maîtrisent pas. Ici, à première vue, ça a l’air simple et évident… donc ils se plantent d’autant plus fort. Tout ce qui a l’air évident est faux, l’intuition et la réalité faisant rarement bon ménage (et la cognition humaine n'est pas conditionnée pour la pensée rationnelle).

Deuxième leçon : il faut faire une distinction claire et fondamentale entre le traitement de l’image, qui utilise un original brut (le master), et son affichage, qui adapte le master à un medium de sortie. Ce n’est pas parce que le medium de sortie tolère des ajustements approximatifs et que l’œil humain est, de toute façon, tout pourri, que le traitement d’image préalable peut s’accommoder d’imprécisions. La confusion entre la vue et le modèle est à la source de nombreuses incohérences dans la chaîne de traitement d’image numérique, y compris dans Photoshop et Lightroom. On travaille ici avec 3 niveaux conceptuels :

  1. la réalité physique (la lumière), supposée parfaite mais inaccessible car les perceptions (humaines) et mesures (des capteurs) sont toujours entachées d’erreur,
  2. le modèle, qui représente cette réalité aussi fidèlement que possible, mais toujours avec une erreur, c’est à dire l’image brute de capteur, échantillonnée de manière destructive en RGB, sur lequel on applique un traitement,
  3. la vue, qui permet à l’utilisateur d’avoir une représentation du modèle (et non de la réalité), qui soit signifiante dans son référentiel cognitif (qu’il puisse la comprendre avec ses connaissances et sa logique), c’est à dire l’image à l’écran, mais aussi tous les graphes, histogrammes, etc. qu’on peut utiliser pour disséquer le master.

En ajoutant un quatrième niveau, le contrôleur (qui permet de modifier le modèle), on obtient une architecture modèle-vue-contrôleur qui est à la base du développement logiciel d’interfaces graphiques depuis les années 1980. Mais pour une raison étrange, la systématisation des interfaces graphiques a juste brouillé les différences conceptuelles entre réalité, modèle, contrôleur et vue, de sorte qu’utilisateurs et développeurs finissent par équivaloir vue et modèle. C’est une grosse erreur, et un problème à la frontière entre l’épistémologie et les sciences cognitives qui a des répercussions directes en traitement d'image, notamment sur la qualité des algorithmes (qu’on applique donc, à tort, sur la vue et pas sur le modèle).

Troisième leçon : les performances brutes des capteurs ou des objectifs ne veulent plus dire grand chose en photographie numérique. Il vaut mieux un capteur ou un objectif plein de défauts faciles à corriger par l’informatique, que proche de la perfection dès le départ mais avec des défauts qui sortent du rayon d’action des algorithmes. D’ailleurs, la conception des nouveaux objectifs prend désormais en compte les possibilités des algorithmes dès le cahier des charges, et l’informatique est totalement intégrée dans les choix optiques. Mais ça, même Ken Rockwell, qui est pourtant censé être ingénieur électronique, n’a pas l’air au courant.

Quatrième leçon : on montre ici, clairement, les limites de l’approche des logiciels de traitement photo comme boîtes noires magiques qui cachent à l’utilisateur ce qui se passe à l’intérieur (parce qu’il serait trop con pour comprendre). Les incompréhensions soulignées ici sont toutes liées à la phase de traitement de l’image, qui est la plus opaque de la chaîne photo, car cachée derrière des interfaces « grand public » de logiciels « intelligents ». Mais les logiciels intelligents rendent les utilisateurs cons. Exposer le pipeline à l’utilisateur, montrer à travers quelles étapes fondamentales son image navigue est un pré-requis indispensable pour lui permettre de développer au moins une culture générale du traitement d’image qui ne soit pas à des années-lumière de la réalité. L’idée ici n’est pas de transformer l’utilisateur en ingénieur obsédé par la technique, mais bien de lui donner des clés pour prendre le contrôle raisonné et raisonnable de sa production photographique, et d’arrêter de le confiner dans un statut de débile mental à qui il faudrait éviter la migraine à tout prix, parce qu’il a payé pour ne pas réfléchir. Les utilisateurs sont intelligents, pour peu qu’on sache leur expliquer clairement ce qui se passe et qu’on leur donne une chance de comprendre.

En fait, je pense que je pourrais finir tous mes articles, ces temps-ci, par la même conclusion :

L’intuition ne marche pas. Méfiez-vous en. Les évidences, c’est pareil.

Commentaires

Les commentaires peuvent utiliser la syntaxe Markdown, le HTML pur, ou les équations LaTeX inline insérées entre $ $ si l’article contient des mathématiques.

  1. GICQUEL Patrick 28 août 2019 à 18 h 24 min - Répondre

    Marrant, mais je prenais toujours l’utilité d’un capteur musclé et les autres de me dire « y a de trop » et moi de dire mais pas assez… c’est vrai que je ne suis un physicien mais un geek poète….Merci pour ce superbe article…

  2. Patrick Bingbang 28 août 2019 à 20 h 04 min - Répondre

    Pourquoi tant de haine ? lol. L’article est très intéressant, mais bon le ton est un rien hautain quand même.

    Je ne remettrai pas en cause ce que vous écrivez quant aux possibilités offertes par cette réserve de pixels qu’on a sous le pied pour améliorer le dématriçage, le traitement du bruit, etc. Votre article est parfaitement cohérent et convaincant à ce sujet. En même temps, il faut savoir ce que l’on cherche en améliorant les traitements via des algorithmes de plus en plus perfectionnés demandant de plus en plus de pixels (i.e. d’information exploitable). Si c’est la qualité technique de l’image qui peut être très importante dans des domaines non artistiques (techniques ou autres), oui bien entendu. Si c’est la qualité du rendu pour une résolution qui au final restera bloquée à 6 Mp lors de sa présentation à un public pour des raisons liées à la physiologie de l’oeil, je ne sais pas trop. Oui, il aura des effets d’aliasing pour des patterns périodiques qui seraient présents sur l’image si l’on ne respecte pas la fréquence minimale d’échantillonage de Shannon-Nyquist, mais est-ce que cela aura le moindre impact sur une image à vocation artistique ? C’est très discutable, je pense. L’argentique s’en est très bien satisfait. Loin de moi l’idée de dévaloriser d’une quelconque manière la recherche dans le domaine, mais j’ai des doutes quant à ses implications positives pour la photographie en tant qu’art. Par ailleurs je doute que la surenchère en termes de résolution s’arrête à 24 Mp. Ceci dit, ayant moi-même parlé un peu de la chose, j’ai mis à jour le billet que j’avais écrit afin d’y inclure un lien vers votre article, puisqu’il est une contribution importante (je ne fais pas la publicité de ce billet ici, ce n’est pas le but de mon commentaire). Merci en tout cas pour ces informations que vous communiquez.

    • Aurélien 28 août 2019 à 20 h 29 min - Répondre

      Pourquoi tant de haine ?

      Pour remettre les choses en contexte, ça fait des années que je traîne sur des forums où les gens ne comprennent pas pourquoi, alors qu’ils ont suivis tous les conseils de tel ou tel gourou du web, ils n’ont pas les résultats escomptés, et qu’il faut repasser derrière en réexpliquant tout depuis le début. Du coup, j’en ai marre des petits malins qui utilisent leur tribune pour tromper le monde en se faisant passer pour experts et vendre leur formation derrière. Surtout que ça a plein d’effets pervers sur les attentes des utilisateurs par rapport aux logiciels.

      Oui, il aura des effets d’aliasing pour des patterns périodiques qui seraient présents sur l’image si l’on ne respecte pas la fréquence minimale d’échantillonage de Shannon-Nyquist, mais est-ce que cela aura le moindre impact sur une image à vocation artistique ?

      Oui, la théorie du traitement du signal reste la même peu importe la vocation de l’image. L’idée n’est pas de faire de la photo techniquement parfaite, mais d’arrêter de perdre du temps à corriger des défauts qu’on aurait pu éviter. Personnellement, quand je retouche une photo, je veux lui donner un caractère, une ambiance, pas rectifier les aberrations chromatiques qui ne devraient pas être là. Paradoxalement, si on veut arrêter de se prendre la tête avec la technique, il faut que la technique marche au millimètre, et c’est en étant rigoureux sur toute la chaîne qu’on y arrive. Je ne comprends pas pourquoi on oppose systématiquement art et technique. Ça marche ensemble, et je ne vois pas comment on peut faire de l’art sereinement si on subit la technique.

      L’argentique s’en est très bien satisfait.

      L’argentique ne discrétise pas et n’a pas de besoin de dématriçage. D’ailleurs, il ne compte pas non plus les photons qui passent. Technologiquement, on est sur complètement autre chose. C’est incomparable.

      • Thomahawk 2 septembre 2019 à 19 h 25 min - Répondre

        Excellent article !
        Cela m’a rappelé mes cours de DUT mesures physiques : rigueur et exactitude.

        Pour répondre toutefois : l’argentique, en faisant réagir une quantité finies de grain photosensibles ne constitue-t-il pas également une discretisation de la réalité physique ?

        • Aurélien 2 septembre 2019 à 20 h 27 min - Répondre

          Merci !

          Les grains de l’argentique ne sont pas une discrétisation au sens de l’échantillonnage, car ils sont répartis de façon aléatoire à la surface du film (on n’a pas de motif géométrique) et le développement chimique induit des modifications locales de contraste et de saturation dues à la déplétion du développeur (qu’on compense en agitant la cuve… ou pas, suivant l’effet recherché), ce qui va provoquer des effets différents selon le niveau de saturation et de luminosité de la zone de film. Ensuite, le film couleur ne déphase pas les 3 canaux du tristimulus CMY. Enfin, on estime la résolution équivalente du film 35 mm 100 ISO à au moins 36 Mpx (et pour le film 120, on atteint 70 Mpx sans problème).

          Donc, oui, on peut voir le film comme une discrétisation très fine et avec des trucs en plus (en poussant le concept de façon un peu excessive), mais ça n’a rien à voir avec un échantillonnage numérique.

          • Bigs 21 novembre 2021 à 12 h 03 min

            36 MPX en « équivalence » pour un film 35 mm, comme vous y allez ! Un film de 100 ISO actuel a un pouvoir résolvant moyen qui ne dépasse pas les 130 lignes/mm (un peu plus pour les certains films « spéciaux »). Sur cette base, on calcule environ 3300 PPP pour un scan à la limite du grain (on peut taper plus haut mais il faudra réduire ensuite), soit un fichier de 14.6 MPX. Et encore, cette valeur est brute puisqu’on doit tenir compte des différents artefacts et aléas qui vont apparaître durant l’opération et réduire encore la taille finale exploitable.

          • Aurélien 21 novembre 2021 à 14 h 59 min

            Il y a une erreur dans votre raisonnement et dans vos calculs. La résolution en lignes/mm est une mesure cyclique, qui ne compte que les lignes noires mais qui implique une ligne blanche en même temps. Ce qui veut dire qu’on a besoin de 2 pixels par « ligne » (en fait : par cycle). En utilisant vos 130 l/mm (je vous fais confiance sur la valeur, je n’ai rien trouvé de tel), on arrive à 6600 PPP, pas 3300 PPP, soit 2600 points/cm, et donc sur un négatif de 24×36 mm, une résolution finale de 9360×6240 px = 58.4 Mpx. En application du théorème de Shannon-Nyquist, il faut scanner ça à 18720×12480 px minimum (deux fois la résolution), appliquer un flou gaussien de rayon 1 px (anti-aliasing), ré-échantillonner à 9360×6240 px et il ne devrait y avoir aucun artefact dû à la numérisation par cette méthode. Tout ça, bien sûr, en négligeant l’effet de l’optique.

  3. Patrick Bingbang 28 août 2019 à 21 h 37 min - Répondre

    Ah je n’aime pas non plus cette tendance du moment qui est de faire de l’auto-promotion à tout crin en vendant des formations. Je comprends votre énervement. Je n’oppose pas non plus technique et art ; ce que j’essayais (probablement maladroitement) de dire était que je doutais des apports majeurs que de meilleurs algorithmes apporteraient au final pour des photos dont la vocation n’est pas d’en extraire le jus jusqu’au dernier pixel ; les corrections déjà disponibles dépassent de très très loin ce qu’on pouvait espérer dans les fantasmes les plus fous à l’époque de l’argentique (d’où le parallèle que je faisais, qui n’est pas lié au fait que l’argentique discrétise ou non ou compte les photons, ce n’était pas mon propos) et je ne suis pas convaincu que cela fasse une réelle différence (sauf peut-être dans des contextes très spécifiques, comme la photo en très faible lumière). J’ai notamment pu regarder ça avec les nouvelles « puissantes fonctions dans Lightroom pour améliorer les détails » : je ne suis pas convaincu de la valeur ajoutée hors du contexte du pixel peeping. Après, l’histoire donnera raison ou non à ce point de vue ; elle est la seule à décider au final, quelles que soient nos opinions du moment.

    • Aurélien 28 août 2019 à 22 h 11 min - Répondre

      les corrections déjà disponibles dépassent de très très loin ce qu’on pouvait espérer dans les fantasmes les plus fous à l’époque de l’argentique

      Oui et non. Il faut vraiment comprendre que la photo numérique ne correspond ni à la façon dont nous voyons, ni à la façon dont la pellicule voit. Par défaut, brut de capteur, le numérique n’est pas visuellement plausible. C’est un truc qui a sa propre logique, et qui ne correspond à rien de ce qu’on connait. Du coup les corrections qu’on y applique ne sont pas des améliorations, mais véritablement des nécessités pratiques pour recoller le résultat visuel du numérique à des références qu’on connaît et qui nous semblent plausibles.

      Après, je ne connais pas les dernières nouveautés de Lightroom en détail, je développe et utilise darktable. Ce que je peux dire, c’est qu’il est possible de rendre tout le processus de retouche plus rapide et meilleur en terme de qualité en remettant à plat le pipeline et en utilisant des algorithmes physiquement réalistes. J’ai déjà commencé dans darktable, et les utilisateurs ont l’air contents (à part ceux qui veulent que le logiciel fasse tout pour eux).

      • Patrick Bingbang 28 août 2019 à 22 h 31 min - Répondre

        D’accord dans ce cas, vous savez de toute manière bien mieux que moi de quoi il en retourne si vous développez ce logiciel.
        Je continuerai à suivre vos articles, sur ce sujet ou sur d’autres.

  4. GAUTHIER Christian 29 août 2019 à 12 h 33 min - Répondre

    Bonjour Aurélien
    J’ai bien lu, plusieurs fois, et je n’ai pas compris grand chose !! Il faut dire que les maths, la physique et moi ça n’a jamais été une grande histoire d’amour !!
    Par contre je trouve ta position vraiment intéressante car ce battre contre de fausses idées reçues qui sont propagées par des gourous sans véritable connaissances cela donne de l’espoir à ceux qui veulent ouvrir les yeux. Tu réalise un beau travail de salubrité public.

    • Aurélien 29 août 2019 à 16 h 07 min - Répondre

      Bonjour Christian,

      est-ce qu’il y a des trucs que je pourrais réexpliquer différemment ? Qu’est-ce qui coince en particulier ?

  5. GAUTHIER Christian 30 août 2019 à 7 h 28 min - Répondre

    Bonjour Aurélien
    Ne t’inquiète pas trop car je pense que c’est mon cerveau qui coince !!

  6. Merlau 30 août 2019 à 17 h 43 min - Répondre

    En gros ,il vaut mieux pour le pêcheur ,un filet avec de toutes petites mailles ,quitte à récupérer beaucoup de poissons inutiles qu’il pourra facilement rejeter tout en ayant une pêche conséquente , qu’un filet avec de grosses mailles , qui, certes le dispensera d’un rejet important de poissons inutiles, mais qui finalement lui donnera une maigre quantité de bons poissons !

    • Aurélien 30 août 2019 à 19 h 03 min - Répondre

      Attention avec ce genre de métaphore, parce qu’il ne s’agit pas de garder ou de rejeter quoi que ce soit (on garde tout) et tous nos poissons ont la même taille. Ici, il s’agit de préserver la continuité du champ de gradient discrétisé en évitant les sauts trop grands entre deux coordonnées voisines.

      Si on devait vraiment user d’une métaphore, c’est que dans la réalité, lorsqu’on a une pente lisse, l’image de cette pente formée par le capteur est en fait un escalier. Plus les marches sont rapprochées et petites, meilleure est l’approximation de la pente. Et l’approximation devient exacte le jour où les marches de l’escalier sont infiniment petites.

      Pour recoller à la métaphore poissonnière, on se fiche de ramasser les poissons, on veut savoir où ils sont dans le filet avec la meilleure précision possible.

  7. GAUTHIER Christian 31 août 2019 à 22 h 28 min - Répondre

    Bonjour Aurélien
    Merci pour la pente et l’escalier car mon cerveau a fonctionné !!

  8. C’estçàouais 1 septembre 2019 à 16 h 05 min - Répondre

    …moi, quand je veux recadrer une photo plus serré et garder un truc imprimable à 6mpx, je suis bien content que mon capteur le permette. (un photographe simple et évident).

    • Aurélien 1 septembre 2019 à 20 h 35 min - Répondre

      Pour le recadrage, la résolution capteur ne change pas grand chose. C’est la fonction de transfert optique qui fixe la résolution optique réelle de l’image, toujours inférieure à la résolution du capteur (https://fr.wikipedia.org/wiki/Fonction_de_transfert_optique), et qui dépend essentiellement de l’optique utilisée (et de la diffusion de l’air). Avoir plus de pixels, pour cette application là, n’est absolument pas une garantie d’image recadrée/agrandie plus plus nette.

      Donc le photographe simple et évident est encore tombé dans le piège.

      La résolution capteur correspond à la résolution d’échantillonnage, qui diminue l’erreur de discrétisation numérique quand elle augmente. La résolution qui nous intéresse pour recadrer/agrandir, c’est la résolution optique réelle, qui se mesure en ligne/mm et dépend de la résolution optique de l’objectif (liée à sa fonction transfert) et de la résolution d’échantillonnage (c’est une combinaison des deux). Et c’est la résolution optique, le plus souvent, qui va nous limiter en premier pour agrandir.

      Ce n’est pas parce qu’on a plus de pixels qu’on a forcément plus de détails au moment du recadrage. En clair, si le rayon du flou créé par l’objectif est de 0.1 mm sur l’image capteur, que j’ai 5 ou 50 photosites dans 0.1 mm linéaire ne rend pas l’image finale plus nette : on va seulement avoir plus de pixels de flou. À ce niveau là, on est dans l’illusion. Avoir plus de pixels c’est bien, mais encore faut-il qu’ils portent une information pertinente.

  9. Sylvain 1 septembre 2019 à 23 h 30 min - Répondre

    Bel article, agréable à lire et plutôt clair.

    Le physicien en mois, me pouce à commenter certains points.
    - les microlentilles ne sont pas responsible du filtre passe bas, ce dernier est/était rajouté en sus.
    - l’aliasing (→ moiré) n’est liée que au de matriçage.
    - j’ai bcp de mal avec l’utilisation du “bruit numérique”. La plus part du bruit que on voit sur une photo n’est pas numériques mais c’est du bruit de photon. Sauf lorsque il y a peut ou pas de photons bien sur. Le “bruit” au sens photographique est en fait du SNR, rapport signal sur bruit. Dire que lorsque on diminue la taille des photosites le bruit numérique augmente c’est faut. En fait c’est plutôt le contraire les petits photosites ont un général un bruit de lecture plus faible. Ils ont cependant un SNR plus faible. Dans le régime ou il y a un peu à bcp de photon ce SNR dépend de la racine carrée du nombre de photon. J’en viens donc à cette dernière remarque : il n’y a même pas besoin d’invoquer les logiciels de debruitage pour montrer que lorsque on combine plusieurs petits photosite plutôt que qq gros on a le même SNR (capteur avec bcp de pixel vs peu de pixels). Ce qui va dictée le SNR c’est la quantité de photons captés par éléments de résolution, cercle de confusion projetée sur le détecteur (de diamètre 1⁄1500 de la diagonale, cela vient de ce que tu as très bien expliqué). Que cet élément de résolution soit composé de 4 petit ou de un gros pixel ne va pas bcp changer le nombre de photon captés (il y a juste un fill factor légèrement moins bon, mais c’est En général négligeable avec les microlentilles et parfois compensé par le fait que les petits photosites ont une meilleure efficacité quantique). Même nombre de photon capté → meme SNR. Après s’ajoute bien sur toute les subtilités du dematricage et debruitage que tu connais mieux que mois.

    • ha certainement un coquille je ne sais pas d’ou sort ton 8 cm max de tirage photo. Avec un champ de vue de 60degree ça fait plutôt 28.9 cm = tan(60/2 pi/180)25 2 
      … ha je crois savoir d’ou vient l’erreur tu as du faire tan(60)
      25 sans convertir en radiant !

    Hope this help. Keep the good work.

    • Aurélien 2 septembre 2019 à 16 h 29 min - Répondre

      Merci Sylvain.

      les microlentilles ne sont pas responsible du filtre passe bas, ce dernier est/était rajouté en sus.

      D’après la doc que j’ai trouvé, sur les vieux capteurs, il y a effectivement les micro-lentilles qui font converger les photons vers le photo-transistor (dans le photosite), et le filtre passe-bas/anti-aliasing qui redirige les photons destinés au espaces interstitiels vers les photosites, mais sur des designs récents, la micro-lentille déborde du photosite et devient aussi le filtre passe-bas. Après, je ne bosse pas chez Canikony, il faudrait confirmer avec eux.

      l’aliasing (→ moiré) n’est liée que au de matriçage.

      Je ne suis pas sûr. On peut observer le moiré aussi sur des films scannés affichés sur des écrans, où il n’y a pas de dématriçage (notamment à l’époque de la TV hertzienne). L’aliasing, c’est du repliement de spectre, qui dépend seulement d’une fréquence d’échantillonnage trop basse, aggravé par le fait que la réfraction change avec la longueur d’onde, donc on empile un déphasage optique, après l’objectif, un déphasage spatial du tristimulus sur le capteur, et un problème de fréquence d’échantillonnage… à mon avis ça suffit à faire un beau moiré sans incriminer les effets de bord du dématriçage.

      En fait c’est plutôt le contraire les petits photosites ont un général un bruit de lecture plus faible. Ils ont cependant un SNR plus faible.

      Oui, si l’on ne regarde que l’entrée (les photons), mais pas si l’on regarde la sortie (les électrons et l’électronique de conditionnement). Chaque ligne de photosites partage la même ligne de reset (d’où l’effet de rolling shutter en vidéo), du coup il y a des effets capacitifs et du cross-talk au niveau de l’électronique de conditionnement (https://books.google.fr/books?id=UY6QzgzgieYC&lpg=PA145&ots=kgp3OSgvEM&dq=phototransistor%20sensor%20camera%20amplification%20CMOS&hl=fr&pg=PA154#v=onepage&q&f=false), qui s’ajoutent au simple bruit gaussien et poissonnien des photons. Auquel s’ajoute encore le bruit thermique qui vient des infrarouges émis derrière le filtre IR du capteur, par échauffement de l’électronique. Le problème, c’est que réduire le pixel-pitch implique de réduire aussi la section des pistes électroniques, donc d’augmenter l’effet Joule.

      ha certainement un coquille je ne sais pas d’ou sort ton 8 cm max de tirage photo. Avec un champ de vue de 60degree ça fait plutôt 28.9 cm = tan(60/2*pi/180)*25×2 
      … ha je crois savoir d’ou vient l’erreur tu as du faire tan(60)*25 sans convertir en radiant !

      C’est pire que ça, j’ai fait le calcul de tête, à la volée, sans l’écrire, et dans la tangente, j’ai pris (30/180) en oubliant de multiplier par pi. Merci pour la remarque. Il faut vraiment que j’arrête de calculer des trucs sans rien écrire.

      • Sylvain 2 septembre 2019 à 23 h 06 min - Répondre

        Bonjour,

        Je ne sais pas si j’aurais le temps de répondre à tous ce soir donc je fais par étape. Concernant le bruit :

        Je ne dis pas que le bruit de photon est le seul bruit en sortie, je dis que dans la plus part des situations photographiques classique c’est lui qui domine. C’est assez simple à calculer. Il suffit de connaitre le gain, le bruit de lecture et éventuellement le dark current pour des poses longues.
        Avec un example : le Nikon D750 à iso 6400, à 5 % de gris (c’est plutôt noir).
        - à iso 6400 le gain du D750 est de 0.07769 e-/ADU (ADU = unité numérique, raw) http://www.photonstophotos.net/Charts/Gain.htm#Nikon%20D750_14
        - et son bruit de lecture (input refered) est de 2.3 electrons http://www.photonstophotos.net/Charts/RN_e.htm#Nikon%20D750_14

        C’est un 14bits donc à 5 % de gris nous avons 2 14* 0.05 = 819 ADU, ce qui correspond à 819 * 0.07769 ~ 64 electrons par photosite en entrée. Donc le bruit de photon est sa racine carrée : 8e- de bruit de photon. Bien supérieur au bruit de lecture de 2.3 électrons, surtout que les bruits s’ajoutes en quadrature. Le SNR dans notre exemple est de 64 / sqrt(8 2 + 2.3^2) = 7.7 alors que pour un détecteur parfait il aurait été de sqrt(64) = 8 ce qui est guère différent. Méme à iso 6400 5 % de niveau de gris, la ou souvent tu te moques de l’information car c’est du noir sur ta photo, le bruit est dominé par le bruit de photon.

        Le courant d’obscurité (dark current, qui inclue l’effet joule dont tu parle et bien d’autres) ne contribue que pour des pauses longues, pour un détecteur moderne il est 0.1 à 0.5 e-/seconde à température ambiante, largement négligeable pour des pauses plus courte que une seconde. Pour une pauses longues de 10sec, le dark current est typiquement de 5e- et sont bruit associé (gaussien également) de sqrt(5) = 2.2e- (égal au bruit de lecture).

        Je tiens à précisé que le bruit de lecture si dessus-cité sont mesurés il inclut toutes les sources de bruits instantané dans le noir (effets capacitif compris).
        Reste aussi les « bruits » dit de pattern, mais ils sont de mieux en mieux maitrisé et par définition on peut les soustraire facilement.

        Le bruit de lecture, en photo, intervient surtout sur la plage dynamique, lorsque on veut pousser les noirs profond pour en sortir du détail. d”autant plus que on utilise dans ces cas un gain (iso) plus faible est donc le bruit de lecture (input refered) est plus important. Ou pour des iso extremes (e.g. 52000, …). Mais pour des photos typiques en basses lumières, c’est en général le bruit de photon qui domine la ou tu souhaite de l’information (je pousserais meme à dire que le bruit de lecture permet d’avoir des noirs plus uniforme en évitant les effets écranté d’échantillonnage numérique horrible pour l’oeil).

        Tout ça pour dire que pour des applications classiques tu peux considérer ton détecteur parfait (dans le sens ou son bruit « numérique » est négligeable, bien sur son efficacité quantique n’est jamais de 100 %). Et donc, contrairement à se qu’on peut lire ici ou la, pour une taille de photos finale données la taille des photosites n’influe pas le SNR final (sauf lorsque cela détériore le fill factor, ce qui n’est plus trop le cas depuis les micro-lentilles) avant meme d’invoqué des algorithmes. Bien sur ça influ le SNR d’un pixel isolée.

        On a tous fait l’expérience une foie de regarder A) une photo (faible lumière) au dos de son appareil, puis B) de zoomer et de voir qu’elle est « bruitée ». Les photosites sont restés les mêmes, la taille de la photo visionnée est resté la même, mais ce qui a changé est la taille du cercle de confusion projeté sur le détecteurplus large pour A) elle englobe plus de photons, donc meilleur SNR au détriment de la résolution.

        Conclusion la phrase « un détecteur avec des plus gros pixel rendra une image moins bruité » est fausse dans la plus part des application photographiques. Elle est juste si on s’intéresse seulement au pixel natifs.

        Pour des applications scientifiques en général la taille des pixels a plus d’importance car on est parfois dans des régimes de basse lumière ou le bruit est dominé par le bruit de lecture. En astrophysique par exemple, en général, on utilise des plan focaux avec un f-number assez grand ~f/16. Ça a pour conséquence que la tache de diffraction sur le plan focal est relativement grande. On s’arrange donc pour avoir le minimum de pixel pour échantillonner la tache de diffraction (lorsque elle est pas troublé par l’atmosphère), afin de ne pas additionner les bruits de lecture. il en faut au minimum deux (dixit Shannon) et plutôt des gros.

  10. Martin 3 septembre 2019 à 13 h 23 min - Répondre

    Bonjour,
    Merci pour ce raisonnement fort intéressant, cependant, et sans remettre en cause ce raisonnement, je n’ai pas compris l’utilisation du théorème de Shannon-Nyquist pour justifier ce raisonnement.
    - Ce théorème dit qu’il faut que la fréquence de l’enregistrement soit au moins 2 fois supérieure à la fréquence du signal à enregistrer :
    → f(enregistrement) = 2 f(signal)
    - Et vous dites qu’il faut que la taille (où est passée la fréquence ?) de l’image imprimée (on n’est d’ailleurs plus dans le cas d’un enregistrement) doit être 4 fois inférieure à la taille du fichier source :
    → t(image imprimée) = ¼
    t(fichier source)
    Ce qui fait par ailleurs que le facteur 2 n’est plus dans le même sens entre la donnée initiale et la donnée finale…
    Merci d’avance pour votre retour.

    • Aurélien 3 septembre 2019 à 15 h 20 min - Répondre

      Ah, bien vu.

      – Ce théorème dit qu’il faut que la fréquence de l’enregistrement soit au moins 2 fois supérieure à la fréquence du signal à enregistrer :
      → f(enregistrement) = 2*f(signal)

      La fréquence de Shannon s’applique à une fréquence spatiale (lignes ou pixels par unité de longueur) de la même manière qu’à une fréquence temporelle (hertz = événements / seconde). À la place de discrétiser le temps, on discrétise l’espace. Le principe reste identique : on a besoin de sur-échantillonner à hauteur de 2 fois la plus haute fréquence qu’on recherche dans le signal (et pas deux fois la fréquence du signal lui-même, celui-ci n’étant généralement pas périodique). Les hautes fréquences, en image, correspondent aux détails fins et nets.

      Et vous dites qu’il faut que la taille (où est passée la fréquence ?) de l’image imprimée (on n’est d’ailleurs plus dans le cas d’un enregistrement) doit être 4 fois inférieure à la taille du fichier source :
      → t(image imprimée) = 1/4*t(fichier source)

      Là, vous faites une confusion entre résolution et taille.

      D’abord, la résolution, en photo, est un abus de langage : on s’en sert pour désigner le nombre de pixels qui constituent l’image (qu’on appelle la définition), alors qu’en fait, physiquement, la résolution est une fréquence spatiale.

      Une image numérique n’a pas de taille avant d’être affichée sur un support, elle a un nombre d’échantillons (les pixels). Lorsqu’on matérialise cette image numérique sur un support (de taille fixée), on le fait à une certaine résolution (pixels par unité de longueur : dpi ou ppp). On peut imprimer n’importe quel nombre d’échantillons sur n’importe quelle taille de support, il suffit d’ajuster la résolution (le nombre de ppp/dpi).

      Plus la résolution du tirage augmente, plus la taille d’un point d’encre se réduit (et moins la discrétisation se voit). Par exemple, à 300 dpi, le point d’encre a un diamètre de 0,08 mm. Théoriquement, ça veut dire que le détail le plus fin qu’on peut techniquement représenter sur le papier a un diamètre de 0,08 mm (après impression). Par contre, ça ne veut pas dire qu’on aura effectivement des détails aussi fins dans l’image imprimée (en faisant une mesure optique).

      Mais, ce que dit le théorème de Shannon-Nyquist, c’est que pour être sûr d’avoir une résolution optique, sur le tirage, de 300 dpi réels, on a besoin d’avoir un enregistrement numérique qui permette d’imprimer au moins à 600 dpi techniques (2 fois la résolution finale désirée), donc qui comporte 4 fois plus d’échantillons. Cet enregistrement sur-échantillonné, soit on l’envoie directement à l’imprimante, qu’on aura réglée à 600 dpi (et on aura exactement 300 dpi optiques réels), soit on effectue une interpolation qui respecte les bords (Lanczos ou Sync) pour sous-échantillonner à 300 dpi avant d’envoyer à l’imprimante, qu’on aura réglée à 300 dpi (et on n’aura pas tout à fait 300 dpi optiques dans le tirage).

      Donc on a besoin d’échantillonner l’enregistrement à hauteur de 2 fois la fréquence spatiale du tirage, parce que c’est la fréquence maximale qu’on peut représenter, liée au plus fin détail représentable.

      Je ne sais pas si c’est plus clair…

      • Régis 31 mars 2022 à 11 h 05 min - Répondre

        Bonjour,
        Tout ça semble avoir un rapport avec le principe de la trame de photogravure en linéature 150 ppp (« trame 150 ») qui réclame un fichier (demi-tons, soit « continuous tone » en anglais) au double de sa linéature, donc 300 dpi pour un résultat acceptable lors de la génération des points de trame sur la plaque.
        Le standard « 300 dpi » n’est pas une valeur arbitraire, à la base.

        PS : Oui, cette histoire de confusion entre résolution et définition, les lignes/mm et les paires de lignes/mm est assez récente…

  11. Jonathan 3 septembre 2019 à 18 h 04 min - Répondre

    Bonjour Aurelien,

    Merci pour cet article très intéressant et plein de vérité. Je ne suis qu’un petit photographe passionné sans prétention mais j’aime aussi comprendre la technique.
    À la fin de ton article tu dis que les logiciels de dematriçage montrent leurs limites et nous prennent pour des abrutis en nous cachant les étapes du processus ce qui fait que nous ne savons pas vraiment ce que nous faisons et que nous faisons de grossières erreurs. Si j’ai bien compris ?
    OK mais quelle serait la bonne marche à suivre pour le simple photographe qui cherche simplement à « développer sa photo numérique » et qui n’est pas bac +8 en physique ?

    • Aurélien 4 septembre 2019 à 17 h 26 min - Répondre

      Bonjour Jonathan,

      pas de solution miracle, j’en ai peur. La première chose à faire serait, pour les éditeurs de logiciels, d’exposer leur pipeline avec, peut-être, des interfaces nodales comme cela se fait dans les compositeurs 3D (Natron, Blender, etc.). Sans aller jusqu’à l’interface nodale, c’est le choix qui a été fait dans darktable, et on se le fait reprocher souvent, parce que ça complique l’interface. Mais au moins, tu sais ce qui se passe dessous. De toute façon, je pense qu’on ne va pas avoir le choix de séparer le marché des logiciels de retouche en 2, pros et amateurs, parce qu’à vouloir plaire à tout le monde, on finit par frustrer presque tout le monde.

      Ensuite, si tu veux comprendre sans y passer tes journées… il faut trouver quelqu’un de compétent qui a du temps pour te l’expliquer. Mais je ne connais personne qui fait ça. On va t’expliquer comment tripatouiller le logiciel, mais jamais comment ça marche et ce qui se passe réellement dedans. L’essentiel de la documentation existante est en anglais et inaccessible sans un minimum de connaissances en maths, physique, psychophysique et informatique. Il manque un pont entre les spécialistes et les utilisateurs finaux. Le problème, c’est que d’un côté les spécialistes sont trop occupés, de l’autre ceux qui ont du temps n’ont pas le niveau.

      • Bernard 5 décembre 2019 à 1 h 19 min - Répondre

        Bonjour Aurélien,
        Jusqu’à présent, j’étais persuadé que l’opération de dématriçage consistait à affecter à un photosite sa propre valeur de couleur :
        par exemple R et à lui affecter la moyenne des valeurs des photosites V et B qui l’entourent, ceci pour arriver à la valeurs R-V-B de chaque photosite ?
        Le photosite devenant donc un pixel.
        Je ne vois pas de déphasage ici ; à moins que je passe à côté de quelque chose ?
        IL me semble que la valeur calculée avec le moyenne des photosites environants est assez représentative de la valeur qu’aurait
        le photosite concerné s’il était effectivement à la place du pixel à construire ?

        Merci de vos lumières,

        Bernard

        • Bernard 5 décembre 2019 à 1 h 35 min - Répondre

          … je pensais à autre chose : l’intérêt d’avoir beaucoup de pixels sous le pied est aussi de pouvoir recadrer sans problèmes…

  12. Philippe Aubry 11 mars 2020 à 16 h 50 min - Répondre

    Bonjour,

    Je découvre cet article remarquable. Je ne suis en rien spécialiste de la photo mais je comprends bien le message. Pour moi ce que vous dénoncez est encore un exemple d’un effet très répandu, l’effet Dunning-Kruger (https://fr.wikipedia.org/wiki/Effet_Dunning-Kruger). Internet permet à n’importe qui d’exposer une opinion sur n’importe quoi, comme si l’égalité de droit impliquait une égalité de compétence … Merci d’illustrer ici qu’on n’est pas expert ou spécialiste parce qu’on l’a décidé mais à force d’étude et de travail ! C’est valable pour la photo numérique bien sûr …

    Cordialement

  13. Domi65  30 avril 2021 à 17 h 00 min - Répondre

    Bonjour et merci pour ces éclaircissements (la lumière étant essentielle au photographe).
    Une petite question me passe par la tête :
    Je ne sais pas si le capteur Fovéonde Sigma, à trois couches et sans matrice de Bayer, existe toujours. Il a le mérite de ne pas avoir besoin de dématriçage, puisqu’il n’y a pas de décalage dans les photosites.
    Du coup, s’il n’a pas un nombre extraordinaire de pixels ça a moins d’importance, non ?
    Il parait que malheureusement, bien qu’il ait une bonne dynamique, le bruit monte très vite lorsqu’on pousse la sensibilité de ce capteur.
    Vrai - faux ?

    • Aurélien 30 avril 2021 à 17 h 32 min - Répondre

      Le Fovéon superpose les filtres colorés (verticalement) au lieu de les répartir horizontalement. A priori, oui, il limite le besoin de sur-échantillonner. Le souci c’est que la lumière est filtrée séquentiellement en couches (bleu, vert puis rouge) ce qui fait que la dernière couche ne reçoit que la lumière que les précédentes ont bien voulu laisser passer et chaque couche supérieure va atténuer l’intensité lumineuse qui arrive aux couches inférieures. J’imagine que le problème est double, en basse lumière : 

      • le signal rouge est proportionnellement beaucoup plus atténué que le bleu, sur un pixel donné, d’où un rapport signal/bruit non uniforme d’un canal RGB à l’autre (d’où j’anticipe un bruit « coloré », dominant dans le rouge et le vert),
      • la variance risque elle aussi d’être non uniforme selon les canaux, et les méthodes classiques de débruitage risquent de sur-corriger le bleu et de sous-corriger le rouge.

      Le deuxième problème paraît réaliste à corriger en logiciel, mais pour le premier il n’y a pas vraiment de solution… à part booster numériquement l’intensité du vert et du rouge, ce qui revient à booster aussi le bruit. J’imagine qu’on peut utiliser le canal bleu (le premier de la pile) pour guider les gradients des deux autres et essayer de restaurer l’image latente, mais je n’ai aucune idée de la qualité finale qu’on pourrait récupérer.

  14. Olivier 26 août 2021 à 9 h 45 min - Répondre

    Bonjour Aurélien,

    Une question me vient à la lecture de votre article très instructif : un capteur de résolution moindre mais de conception plus récente sera t-il invariablement plus délicat à dématricer et à débruiter qu’un capteur plus riche en photosites mais de conception plus ancienne ? Je pense au récent 20,9 mpix APS-C Nikon (celui des d500, d7500) face au précédent 24 mpix (celui des d5300, d7100, etc… ).

    Cordialement.

    • Aurélien 26 août 2021 à 11 h 53 min - Répondre

      Bonjour Olivier,

      récent ou ancien, la conception d’un capteur est toujours la même : on échantillonne à une certaine densité spatiale. La densité de photosites (donc au final leur taille) impacte plutôt l’influence du bruit, donc c’est plutôt là que va se situer le gain, mais le problème de dématriçage reste identique. Maintenant, entre 24 et 20 Mpx, je doute que ça fasse une grande différence pour le dématriçage.

      • Olivier 26 août 2021 à 16 h 44 min - Répondre

        Merci pour votre réponse.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.