Published On : 25 juillet 2019 |Last Updated : 14 octobre 2020 |3481 words|14,6 min read|14 Commentaires on La photo est une débutocratie|

La photographie est un art facile, depuis que Boston Camera inventa, dans les années 1890, le Bull's eye, un appareil moyen format en cuir et bois, mono-objectif et à temps d’exposition fixe. Pas de mise au point, pas de temps d’exposition, l’appareil comporte seulement 3 réglages d’ouverture/profondeur de champ, et un déclencheur avec retardateur pour selfie. Le premier appareil point & shoot (vise & déclenche) du monde.

Pour autant, facilité ne signifie pas simplicité. Car les paramètres qui font que la photo est bonne – angle, lumière, pose, cadrage, composition, langage visuel – se trouvent hors de la boîte, et se déclinent en une infinité de combinaisons possibles, et autant d’erreurs potentielles. Les automatismes modernes des boîtiers n’ont pas amélioré la maîtrise de l’éclairage, de l’instant et des conditions de prise de vue, qui restent soumis à l’expertise du photographe, donc souvent bâclés.

Cette simplicité – technique – croissante est cependant l’aspect sur lequel beaucoup de gens se focalisent, car elle réduit la valeur immédiatement perçue de la photo, que certains vont donc tenter de restaurer par un retour « aux sources ». Fleurissent ainsi les chaînes YouTube et sites web qui vous exhortent à shooter en mode manuel, et vous expliquent comment, comme pour remettre de la dignité dans cet art perdu, ce qui n’a aucun sens sur le plan technique, car les automatismes bien utilisés sont largement plus efficaces que le pauvre humain, à condition de savoir quand ne pas leur faire confiance. C’est donc par une complexification assez artificielle qu’on tente de sauver la face, ce qui n’a pas vraiment de sens, compte tenu du fait qu’il reste bien assez de complexité dans la gestion de l’éclairage ou dans le langage visuel, par exemple, pour ne pas avoir à se rajouter des handicaps à la main. Mais cette complexité là passe inaperçu parce qu’elle ne se voit que si on en a entendu parler (sémiologie et philosophie de l’art).

Alors, vous allez manger de la règle des tiers, puis du triangle de l’exposition : la profondeur de champ ceci, le flou de bougé cela, mais gare aux ISO trop hauts. D’accord. Et après ? Les recettes de cuisine Lightroom : la clarté, assez mais pas trop, un peu plus de lumière dans les ombres, un peu moins dans les blancs, et pensez à exposer à droite. Tels effets sont cool, tels effets sont honnis, fondu au noir, cette vidéo a été sponsorisée par Nord VPN ou Square Space, likez et achetez mes collections de presets.

Et après ? Et bien c’est fini, ça s’arrête là. Circulez, rien à voir.

La photo est une débutocratie : ce sont les débutants qui ont pris le pouvoir. Ça a l’air d’être une bonne nouvelle, côté ouverture de la discipline et démocratisation, mais en fait non : un débutant est essentiellement quelqu’un qui va passer une énergie folle à se tirer dans le pied sans le savoir, et qui va expliquer aux autres comment faire pareil. Et il le saurait, qu’il est en train de se faire du mal, s’il avait plus d’expérience, où s’il écoutait les gens qui savent, mais il est autodidacte, donc il réinvente la roue tout seul dans son coin. Tout le contenu est dédié aux débutants et ce sont eux aussi qui le créent, pour des plus débutants qu’eux. Dès que tu maîtrises le triangle de l’exposition et la règle des tiers, tu peux ouvrir ta chaîne YouTube, et devenir le énième idiot à raconter les mêmes conneries. Mais attention, on raconte des conneries en tout altruisme, hein, c’est pour aider les copains qui rament. En leur bourrant le crâne d’approximations qu’ils vont devoir désapprendre un jour où l’autre, mais c’est pas bien grave. Abonnez vous et partagez.

La formation continue pour les photographes confirmés est inexistante. Pourquoi ? Les gens qui ont le niveau pour la dispenser, avec une vraie expérience pratique et théorique de ces concepts, sont trop occupés. Mais quand ils se risquent sur les forums grand public, où ils contredisent généralement l’opinion générale, ils se font démonter par des gens qui répètent ce qu’ils ont entendu, et qui pensent qu’ils savent. En fait, il faut aller les chercher sur des groupes privés de professionnels de la production, où l’on ne rentre que sur cooptation (et où, en plus, il faut parler anglais).

Vous connaissez l’adage : quand on sait faire quelque chose, on le fait ; quand on ne sait pas le faire, on l’enseigne. Ce qui peut se comprendre de deux manières : seuls les médiocres enseignent (ce qui n’est pas toujours vrai), ou c’est en enseignant qu’on apprend soi-même. Qu’on apprenne en enseignant, c’est un fait, mais dans l’intervalle, ce sont des conneries qu’on transmet à nos pauvres élèves, qui vont le prendre pour argent comptant parce que, quand on ne sait pas par où démarrer, on est prêt à faire confiance à n’importe quel baltringue qui a l’air sûr de lui. Le pédagogue a une responsabilité morale vis à vis de ses élèves, il est utile de le rappeler. Et je vous jure que j’ai vu plusieurs fois des débutants qui demandaient de l’aide pour préparer un cours, dans leur club photo, sur un logiciel avec lequel ils débutaient.

Il y a un an, je suis passé du côté développeur des logiciels photo, par frustration de ne pouvoir obtenir le résultat visuel que je cherchais, via mon logiciel (car, oui, la frustration peut aussi être un moteur vers des choses positives, n’écoutez pas les gourous du développement personnel). Incidemment, je poste beaucoup moins ici… Venant du calcul scientifique, le traitement d’image, c’est les mêmes maths, appliquées à autre chose. Pensais-je… Le traitement de la couleur est excessivement complexe. La couleur, elle-même, est complexe car elle n’a pas d’existence physique mais est une pure construction mentale qui vient de la décomposition d’un spectre lumineux en tristimulus nerveux. Les mathématiques qui relient le spectre lumineux (physique) à la couleur (perceptuelle) doivent donc tenir compte de cette double réalité, physique d’un côté, psychologique de l’autre, et les relier au bon moment et de la bonne façon. La science de la couleur est donc essentiellement de la psychophysique.

C’est à force de lire des papiers scientifiques et des normes graphiques que j’ai peu à peu compris que je n’avais pas compris. Et que pas un seul de ces charlatans du net n’a compris non plus. J’ai passé plus de 6 mois à désapprendre ce que j’ai perdu des années à apprendre ici et là. Ma « chance » est d’avoir commencé ce travail en sachant ce qu’est un espace vectoriel et un spectrophotomètre, et je ne suis pas sûr que j’y serais arrivé sans bases scientifiques et photographiques. Mais tout le monde pense savoir ce qu’est la couleur, de façon intuitive et empirique.

À peu près tout ce que vous entendrez sur internet à propos de l’étalonnage d’un écran, des mérites supposés des profils ICC, de la différence entre saturation ou vibrance, du bénéfice allégué des espaces RGB à large gamut, ou de la prétendue supériorité des fichiers 16 bits sur les 8 bits, est partiellement voire complètement faux. Photoshop maltraite la couleur de la même façon – destructive – depuis 30 ans. Lightroom n’est pas prêt pour l’édition de photos HDR, qui sortent des appareils photos modernes (HDR commence à 8 EV de plage dynamique). La chaîne de travail ICC non plus. D’ailleurs, le chaîne de couleur ICC ne se soucie même pas d’assurer la cohérence entre les couleur écran et les couleurs d’origine de la scène, elle remappe vers la couleur la plus proche dans le gamut source.

¾ des développeurs qui bossent dans les logiciels d’imagerie n’ont pas la moindre idée de ce qu’il font, mais se contentent d’appliquer à la lettre des spécifications de 1976, en pensant qu’elles doivent bien reposer sur quelque chose de sérieux. Spécifications qui font des centaines de pages, pour éviter de montrer une seule équation, car le développeur commun est nul en maths et tombe en syncope à la vue d’une somme continue. Donc on traîne des spécifications de normes de 15 km de long pour expliquer comment programmer la norme, en évitant soigneusement la théorie, qu’on pourrait résumer à quelques équations simples, jusqu’à ce que tout le monde ait oublié d’où elle vient et quel problème elle essayait initialement de résoudre (parce que, 30 ans après, le problème a changé, mais le protocole est resté, patché par de la cochonnerie pour que ça marche plus ou moins).

95 % des photographes utilisent les logiciels de retouche sans avoir la moindre idée de la façon dont ceux-ci flinguent leurs couleurs, mais aussi les fusions/masquage et les flous, en travaillant sur des fichiers encodés en gamma, au lieu de les linéariser. Bref, c’est le bordel dans la chaîne de traitement d’image numérique, avec des protocoles et des habitudes vétustes, créés dans les années 1970-80 pour travailler sur des négatifs scannés, et bricolés de façon immonde pour les adapter à la photo numérique en essayant de conserver la base de la norme simplement parce que tout le monde l’utilise et la connaît.

En fait, l’industrie du cinéma a réglé depuis longtemps des problèmes avec lesquels les photographes sont toujours en train de se battre, en joignant les dollars d’Hollywood à l’expertise de Kodak. Ça fait un certain nombre d’années que les studios de cinéma doivent fusionner des vidéos issues de pellicule scannée, de caméras numériques et des effets spéciaux de synthèse, et ces contraintes beaucoup plus exigeantes les ont forcés à travailler proprement pour intégrer tout ça sans couture apparente, et donc à développer une chaîne de couleur basée sur la physique. L’Académie des Oscars a donc un service recherche et développement qui maintient le ACES (Academy Color Encoding System), un ensemble d’algorithmes publiés sous licence Open Source permettant d’effectuer toutes les opérations fondamentales de traitement de la couleur, en pouvant transférer les réglages entre différents logiciels.

Pourquoi ces « nouvelles » méthodes (qui ont quand même déjà 20 ans, pour certaines) de gestion de la couleur ou de traitement des fichiers HDR ne sont toujours pas passées à la photo est un mystère pour moi, probablement dû en partie aux normes ICC et à 30 ans d’habitudes. Toujours est-il qu’il existe des algorithmes meilleurs, mais qui nécessitent de repenser totalement la chaîne de travail photo, et donc de changer nos habitudes. Le changement est très simple : il faut arrêter de faire n’importe quoi sur la couleur, en manipulant les images dans des espaces de couleur perceptuellement homogènes (ce qui a pourtant l’air intuitif), et traiter les images comme des émissions lumineuses, de façon physiquement réaliste, dans des espaces énergétiquement homogènes (en clair : des espaces ou les valeurs RGB des pixels sont proportionnels à l’énergie de la lumière qu’ils enregistrent). Ainsi, chaque filtre numérique devient l’exacte reproduction, par le calcul, d’un filtre analogique, et l’on obtient de meilleurs résultats visuels en moins d’étapes. Ça a moins d’effets secondaires indésirables, et le résultat est plus réaliste.

Me voilà donc en train d'expliquer aux gens ce qu’ils ont à y gagner, mais ce que ça va leur coûter : essentiellement, le besoin de s’approprier la théorie derrière l’outil, parce que cette chaîne de travail est moins simpliste et différente de ce à quoi ils sont habitués, et qu’elle s’utilise beaucoup plus difficilement que les outils actuels, si l’on ne comprend pas ce qu’ils font, mais plus rapidement, quand on sait ce qu’on fait.

Que n'avais-je dis

L’implicite caché de la débutocratie, c’est que les logiciels photo doivent être facilement accessibles aux débutants. Un implicite qui n’a pourtant rien d’évident mais qui correspond à une réalité : le manque de formation à la psychophysique de la couleur et à la physique de la lumière dans les milieux graphiques, même chez les pros (souvent autodidactes, au demeurant), où l’essentiel du travail se résume à tirer et pousser des curseurs de logiciels propriétaires, dont on n’a pas la moindre idée de ce qu’ils font sous le capot, mais « ça me permet de faire ce dont j’ai besoin ». Et puis, bien sûr, l’amour de la gratification immédiate fait que tu te fais traiter d’élitiste à chaque fois que tu invites les gens à faire un effort.

Il y a 20 ans, les gens s’émerveillaient de la magie de l’informatique, qui rendait simples et accessibles des choses auparavant complexes et longues. Aujourd’hui, cette magie, elle ne les émerveille plus, ils l’exigent et la prennent pour acquise, sans se rendre compte qu’elle les a aliénés, puisqu’ils ne sauraient reproduire le même résultat avec un autre outil, et dépendent donc d’un logiciel spécifique, qu’ils utilisent avec leur mémoire plutôt qu’avec leur jugement. Piégés dans une interface, ils sont inadaptables si on la leur change, car il ne raisonnent pas en terme d’objectifs de retouche, mais d’effet du curseur du logiciel.

Ceci pose un problème : un photographe, même amateur ou débutant, est un créateur. Un créateur est quelqu’un, de façon très générale, qui utilise des outils pour pratiquer un artisanat afin de produire quelque chose d’original. Et tout se passe comme si on avait retiré l’artisanat de la photo, sous l’implicite que la photo devait être accessible facilement sans savoir-faire. En clair, plus on leur en donne, plus ils en veulent.

Certes, la photo grand public, celle des téléphones et des compacts numériques, n’a aucune prétention artisanale. Cependant, les simplifications qui l’ont permise, en terme d’interface, ont été faites au prix d’approximations dans les algorithmes et dans les modèles de couleur, qui détruisent la qualité d’image et ne fonctionnent bien que dans les cas sympas, c’est à dire pas tout le temps. Du coup, on fait quoi, quand ça ne marche pas ? On bricole des pansements pour jambe de bois. La gestion des bleus saturés, en photo numérique, reste un exemple clair d’échec de ces algorithmes : les photographes de concert sont habitués à voir leur bleus virer vers le pourpre, de même que les paysagistes voient leur ciels bleus tirer vers le cyan. Les raisons en sont purement mathématiques et parfaitement connues. La solution est, « simplement  », de changer les modèles de couleur, pour passer à des représentations RGB physiquement réalistes. Mais ces modèles, plus robustes, sont aussi moins simples, conceptuellement. Tout se paie.

Ces modèles ne sont pas interfaçables avec les anciens, et il n’y a pas de façon de récupérer le meilleur des deux mondes, pour faire un logiciel tous publics où les débutants auraient la simplicité de l’ancien modèle et les pros, la robustesse du nouveau. Ce sont deux représentations différentes et incompatibles de la même réalité, au même titre que la physique newtonienne et la physique quantique sont irréconciliables.

Actuellement, la mode est aux logiciels à visée professionnelle mais à l’ergonomie simplifiée sur le modèle des applications grand public. Le problème est que la simplification n’est pas juste ergonomique. La simplification implique toujours de s’arranger avec la théorie pour faire disparaître des variables de l’équation. De telles simplifications impliquent des cas limites où le modèle simplifié va échouer, et où ça va se voir. Et dans ces cas d’échecs, les bidouillages correctifs sont en fait beaucoup plus compliqués que le modèle complet, prenant en compte toutes les variables, sans simplification. Par contre, le modèle simplifié évite au photographe d’appréhender la physique de la lumière pour dépasser la non-intuitivité a priori de l’outil.

Le problème de l’intuitivité, c’est que ça ne marche pas. La matière est composée d’atomes, eux-mêmes composées à 99,99 % de vide, au milieu duquel se baladent des nucléons. Donc la matière, c’est essentiellement du vide. Pourtant vous ne voyez pas à travers ce mur. Est-ce intuitif ? Tout corps dont la température est supérieure au zéro absolu (- 273 °C) subit une agitation moléculaire, donc un mouvement infinitésimal. Pourtant, ce mur a l’air parfaitement inerte. Est-ce intuitif ? On pourrait multiplier les exemples… Rien n’est intuitif, quand on y regarde de près, et c’est bien pour ça que tout est complexe et que ça nous a pris des millénaires à comprendre aussi bien la physique que la biologie ou la psychologie.

En pratique, l’intuitivité se résume à quelque chose d’inconnu qui se comporte comme quelque chose qu’on connaît déjà, ce qui permet donc de faire l’économie d’un nouvel apprentissage en procédant par analogie avec ce qu’on connaît. Mais quand je ne connais rien, on fait comment ? Le simple concept d’intuitivité pour un débutant est une contradiction dans les termes, puisqu’on ne peut rendre intuitif quelque chose qu’on n’a jamais vu. Les choses qui seront intuitives pour quelqu’un ayant commencé la photo à l’ère argentique, avec une pratique de la chambre noire, ne seront pas les même que celles intuitives pour quelqu’un ayant commencé la photo avec un iPhone. « Intuition » est le mot sexy pour dire « préjugés ».

La débutocratie, c’est mal. C’est d’abord une mauvaise formation des débutants par les débutants, avec tout ce qu’elle comporte d’approximations et d’erreurs qui vont se propager et faire perdre du temps à tout le monde. Ensuite, c’est une forme de paresse intellectuelle où l’on exige des résultats magiques en quelques clics sans fournir l’effort de compréhension nécessaire à une utilisation raisonnée de l’outil. Et la paresse se paie toujours, à long terme. C’est donc, de fil en aiguille, un paradigme complet, en terme de conception d’outils et d’interfaces pour travailler l’image, qui tend vers le nivellement par le bas, où l’on prive les artisans du contrôle sur leur outil au nom de la démocratisation, et où l’on vend aux débutant « tout pour pas cher », alors qu’on les enferme dans un système dont les seuls qui ont la clé sont aussi ceux qui encaissent les chèques. Ce sont des besoins de plus en plus incompatibles entre les professionnels et les amateurs, que le marketing contribue à brouiller allègrement à coup de fausses promesses. Et finalement, c’est une impasse pour tout le monde car de nombreux problèmes n’ont pas de solution dans cet espace simplifié.

Il n’y a pas d’un côté les ingénieurs, et de l’autre les artistes. Les deux ne sont pas mutuellement exclusifs, et la vision romantique de l’artiste vivant dans son monde immatériel est contredite par de nombreux exemples, de Léonard de Vinci à Ansel Adams, qui ont été capables de faire progresser leur art justement par une compréhension de ses fondements techniques et scientifiques. Il y a des gens qui comprennent ce qu’ils font, et les autres, qui subissent les événements qui leur arrivent. Ceux qui veulent faire l’économie de la compréhension, en pensant gagner du temps, perdront infiniment plus de temps, plus tard, à se battre avec l’outil, quand celui-ci les trahira. Les stratégies payantes à court terme sont toujours très coûteuses à long terme.

Il faut remettre l’artisanat dans la photo, et vite. Rendre les choses plus simples ne va pas les rendre plus faciles ni plus efficaces (et, oui, c’est contre-intuitif), cela va juste retirer aux gens les outils nécessaires pour embrasser la complexité des choses et en tirer le maximum. Mais aussi, de façon perverse, cela va creuser le fossé entre les rares personnes qui comprennent cette complexité et les autres, et donc accroître le pouvoir de celui qui vous vend l’outil qui vous autorise à rester idiot car il vous place en position de dépendance et d’infériorité vis à vis de lui, tout en ayant intérêt à ce que vous restiez idiot. La simplification apparente, dans l’interface, s’accompagne toujours d’une opacification croissante de la mécanique sous-jacente, et donc, plus on simplifie l’usage, plus on verrouille la compréhension pour celui qui voudrait s’y intéresser.

Est-ce que c’est vraiment cela que vous voulez, vous faire ostraciser de votre propre travail photographique ?

Commentaires

Les commentaires peuvent utiliser la syntaxe Markdown, le HTML pur, ou les équations LaTeX inline insérées entre $ $ si l’article contient des mathématiques.

  1. Thomas Hammoudi 26 juillet 2019 à 8 h 22 min - Répondre

    Hello Aurélien :)

    En effet, ça faisait un bail qu’on ne t’avait pas lu !
    Je suis mitigé à la lecture de l’article, pas tant sur le fond que sur les positions.

    Je suis d’accord avec toi sur le constat, la débutocratie & cie. Aussi, améliorer le rendu des logiciels et les mettre à jour me semble être une bonne initiative, même si je n’en saisis pas toutes les subtilités techniques, ça semble aller vers du « mieux ».
    Par contre, je doute quand même de l’intérêt pour l’utilisateur moyen de comprendre et de maîtriser tout ça. Enfin, pour les graphistes & cie, ça peut être intéressant, mais pour les photographes à vocation « arty », je ne vois pas trop. On passe justement notre temps à déformer les couleurs pour les faire ressembler à ce dont on a envie (qid de la réalité des couleurs dans les travaux de Webb ? Et du noir et blanc ?).

    J’ai plus l’impression que ça va relancer la machine à geek de forum qui vont s’occuper plus de la technique que de leur propos artistique. Dans l’absolu, c’est top que l’outil existe, qu’on ait la possibilité de faire « parfaitement juste » si on le souhaite, mais je doute de l’intérêt de l’apprendre à tous. D’ailleurs, la comparaison avec la musique est bancale : oui il faut des années pour se former à la musique. Par contre, après 15 ans, je n’ai toujours aucune idée de comment mon ampli fonctionne. Mais le son est bon, et c’est ça que je veux.
    De même dans la photo, les 15 ans tu vas les passer à développer ton oeuvre / style / projet / que sais-je, mais j’suis pas sûr qu’avoir une idée du fonctionnement de la blackbox au milieu t’aide vraiment.

    A+ dude.

  2. Aurélien 26 juillet 2019 à 13 h 39 min - Répondre

    Salut Thomas !

    Par contre, je doute quand même de l’intérêt pour l’utilisateur moyen de comprendre et de maîtriser tout ça. Enfin, pour les graphistes & cie, ça peut être intéressant, mais pour les photographes à vocation « arty », je ne vois pas trop.

    L’intérêt pour l’utilisateur moyen, il est double : c’est de jouer avec son image numérique comme s’il jouait directement avec des filtres colorés sur la lumière (ou des gélatines sur le flash), donc de façon plus réaliste, mais aussi de faire en 30 s ce qui prend aujourd’hui plusieurs minutes, à cause d’une représentation bancale de la couleur. De façon plus conceptuelle, c’est une façon de recoller la photo à la peinture, en retrouvant le comportement des mélanges de pigments.

    Dans l’histoire, l’objectif n’est pas systématiquement d’avoir la couleur juste, mais d’avoir un moyen de contrôle robuste (donc rapide et sans effets secondaires) de cette couleur. Aujourd’hui, beaucoup d’opérations sur la luminosité de l’image vont produire des modification de la saturation et de la teinte des couleurs (ça s’explique mathématiquement), qui vont devoir être corrigées à part. Donc tu te retrouves à empiler des corrections de corrections de corrections qui bouffent un temps indécent, et finissent rarement par avoir l’air réalistes (quand on récupère brutalement les basses lumières, par exemple). Développer une photo ne devrait pas prendre plus de 45 s.

    Donc, non, je ne suis pas d’accord avec le fait qu’on va relancer la machine à geek. Au contraire, on va offrir un contrôle créatif total au photographe « arty » (à charge pour lui d’apprendre à gérer ce potentiel). De la même manière que les peintres apprennent comment mélanger les couleurs, appliquer un glacis ou autre, il s’agit de retourner à la matière première, la lumière, pour faire plus vite et mieux en retouche/développement, et avoir plus de temps pour shooter. Et puis, même, dès que tu commences à imprimer tes photos, tu n’as pas le choix de t’intéresser à la façon dont la couleur est convertie et transformée (ne serait-ce que parce que ça n’a pas la même tronche à l’écran et sur papier).

    Vraiment, je pense que l’approche « en apprendre le moins possible » fait perdre beaucoup de temps. Il y a une raison pour laquelle je fais mieux en 5 clics que la plupart des gens en 20 min, dans darktable.

  3. Philippe Delétrée 26 juillet 2019 à 19 h 42 min - Répondre

    Les attentes sont différentes selon les pratiques :
    Les photographes de loisirs (clic clac merci kodac),
    Les photographes de clubs photos (règle des tiers et triangle d’exposition)
    Les photographes de collectifs (regards parisiens ou autres : https://www.regards-parisiens.fr/collectif/ )
    Chaque catégorie a des exigences particulières en prises de vues et en post traitement.
    Effectivement Youtube et les forums sont quasiment dévolus aux deux premières catégories.
    Ceux de la troisième catégorie sont impatiemment attendus sur les réseaux sociaux et ce contenu arrive tout doucement ( https://www.youtube.com/user/hoenne )
    Bon, encore un peu trop « donneur de leçon » mais la direction est bonne.
    D’autres initiatives vont dans le bon sens également ( https://www.openeye.fr/ )
    En fait ce n’est pas à la « Débutocratie » de battre en retraite mais aux défenseurs de l’Art photographique, fort du constat que vous venez de faire, d’être visibles sur les réseaux sociaux pour tirer vers le haut ceux qui le souhaitent.

    • Hammoudi Thomas 31 janvier 2020 à 16 h 52 min - Répondre

      C’est un peu plus compliqué que cela. Il ne suffit pas d’être « visible » sur les réseaux sociaux. En fait, y’a un vrai engagement de la part des gens à avoir aussi (on le dit dans chaque vidéo mais : like & partage, ça fait la différence), sans ça, les algos continuent de montrer aux gens la même chose.
      On le voit, Ted Forbes & Eric Kim ont fini par céder et faire la même chose que tout le monde. Cela doit venir des deux sens, proposer un contenu différent, et le soutenir activement pour en voir plus. :)

      • Aurélien 31 janvier 2020 à 20 h 12 min - Répondre

        Ça fait presque 1 an que Ted Forbes fait de la merde (i.e des revues de matos et de logiciels…). C’est assez triste. Je ne sais pas vraiment si c’est un problème de manque d’audience pour sa série d’interviews d’artistes, donc un recentrage économique vers le secteur de marché qui paie, ou juste un laisser-aller à la facilité. Dans les deux cas, c’est mauvais signe.

  4. Miguel Moquillon 31 août 2019 à 21 h 59 min - Répondre

    Si je comprend bien, il faudrait travailler sur une modèle qui décrit la couleur des pixels comme une simple valeur RGB dont la valeur de chaque composante est proportionnelle à l’énergie reçue (via la luminescence) ?
    Est ce que les profils RGB dits linéaires (Rec 709 par exemple) utiliser dans l’export d’une photo relèvent de ce que tu décris ?
    Ce dont je ne comprend pas c’est est ce que les capteurs actuels transmettent les informations correctement et que c’est dans l’outil de traitement qui change de modèle ou est ce que déjà les ingénieurs conçoivent les capteurs en prenant en compte les modèles qui seront utilisés dans les outils de traitement de photos ?
    Et si c’est le premier cas, est ce que dans Darktable, par exemple, le modèle RGB est celui dont tu décris … parce que maintenant je commence à douter. Et si c’est le cas, est ce pour cette raison que ton module Filmique travaille dans cet espace ?

    Pour t’avouer, je commence juste à me mettre au développement photo et franchement je me sens complètement noyer par toutes les infos et théories derrières.

    • Aurélien 1 septembre 2019 à 20 h 00 min - Répondre

      Les capteurs transforment des photons en électrons (1 électron pour 1 photon), et mesurent le courant obtenu à chaque photosite, puis stockent sa valeur dans un fichier : c’est l’image brute (qui n’a donc rien d’une image). C’est une information correcte où les valeurs RGB sont proportionnelles à l’énergie d’entrée (donc linéaires).

      Pour la plupart des opérations, effectivement, travailler en RGB linéaire est l’option la plus robuste, mais certaines opérations spéciales (le mappage de gamut entre 2 espaces RGB par exemple), ont tout leur sens dans un espace perceptuel comme Lab, JzAzBz ou IPT. Ça, c’est pour le travail sur la couleur, dans le logiciel.

      Maintenant, quand on enregistre l’image dans un fichier encodé en nombres entiers sur 8 bits (JPEG, TIFF, PNG, etc.), on est obligé d’encoder les valeurs avec une fonction transfert non-linéaire de type log ou puissance (appelée à tort gamma par habitude) pour éviter les erreurs de quantisation. Cet encodage est stocké dans les métadonnées ICC du fichier et sera décodé par le convertisseur analogique-numérique de l’écran avant affichage, donc il est neutre. Sauf si on choisit de retravailler cette image encodée dans un logiciel sans la décoder au préalable, ce que font presque tous les logiciels de retouche par défaut.

      • Miguel Moquillon 3 septembre 2019 à 17 h 26 min - Répondre

        « C’est une information correcte où les valeurs RGB sont proportionnelles à l’énergie d’entrée (donc linéaires). »

        Est ce à dire que cette énergie mesurée n’est en faite que la luminance reçue par le photosite qui correspond à une composante de couleur (R ou V ou B) ? Autrement dit ce qui est enregistré c’est la luminance est non exactement l’intensité lumineuse ? Et c’est par la combinaison, lors du dématriçage, des différentes luminances mesurées des photosites attachés à une couleur primaire que l’on recompose/approxime la chrominance de chaque pixel ?

        « Maintenant, quand on enregistre l’image dans un fichier encodé en nombres entiers sur 8 bits (JPEG, TIFF, PNG, etc.), on est obligé d’encoder les valeurs avec une fonction transfert non-linéaire de type log ou puissance (appelée à tort gamma par habitude) pour éviter les erreurs de quantisation »

        Tu veux dire par ici que lorsque l’on exporte une photo dans un format à 8 bits, la fonction de retranscription des pixels de 14 bits (ou 12 bits) à 8 bits est en fait de type logarithmique ou puissance pour éviter au mieux des pertes d’info lorsque l’on réduit l’espace des valeurs ? Donc, en quelque part, il y a modification des tonalités, non ?

        • Aurélien 3 septembre 2019 à 20 h 38 min - Répondre

          Est ce à dire que cette énergie mesurée n’est en faite que la luminance reçue par le photosite qui correspond à une composante de couleur (R ou V ou B) ? Autrement dit ce qui est enregistré c’est la luminance est non exactement l’intensité lumineuse ? Et c’est par la combinaison, lors du dématriçage, des différentes luminances mesurées des photosites attachés à une couleur primaire que l’on recompose/approxime la chrominance de chaque pixel ?

          La luminance n’existe pas pour le capteur, elle se définit comme la sensation d’éclairement perçue par l’humain. En gros, pour une distribution spectrale donnée (une émission lumineuse), on peut découpler la luminance (sensation lumineuse) et la chrominance (sensation colorée), dans le référentiel visuel humain. Un tel découplage n’existe pas et n’a pas de sens pour le capteur de l’appareil, qui n’est qu’un colorimètre qui compte les photons qui passent à travers les filtres colorés des photosites. C’est donc l’éclairement que le capteur mesure.

          Tu veux dire par ici que lorsque l’on exporte une photo dans un format à 8 bits, la fonction de retranscription des pixels de 14 bits (ou 12 bits) à 8 bits est en fait de type logarithmique ou puissance pour éviter au mieux des pertes d’info lorsque l’on réduit l’espace des valeurs ? Donc, en quelque part, il y a modification des tonalités, non ?

          Ce n’est pas une fonction de transcription, c’est un encodage non-linéaire. Quand on ouvre la photo, de l’autre côté, on a un décodage qui rétablit le signal linéaire. Donc sur toute la chaîne, c’est une non-opération qui n’affecte en rien les tonalités, mais évite la postérisation ou les effets de bandes à l’enregistrement. L’encodage n’est utilisé que pour l’enregistrement en entiers (et pas que sur 8 bits d’ailleurs, mais on peut s’en passer à partir de 12-14 bits).

      • Guillaume Roguez 6 septembre 2020 à 1 h 11 min - Répondre

        Juste une petite correction (qui n’enlève en rien au message d’Aurélien) : les capteur ne convertissent pas les photons en électrons avec un rapport 1:1 et ils ne sont pas non plus parfaitement linéaire.

        Ce rapport de conversion est en faite toujours inférieur à 1 (genre 80 % par exemple)… et même cela est « faux » (enfin une simplification linaire d’un phénomène qui ne l’est pas, d’où ma remarque que les capteurs ne sont pas « parfaitement linéaire »).

        On parle d’« efficacité quantique » (cf https://fr.wikipedia.org/wiki/Efficacit%C3%A9_quantique). Ce rapport est variable suivant la longueur d’onde du photon capturé.

        Par exemple, voici cette efficacité quantique (QE) du capteur Sony IMX224 qui se trouve sur la caméra couleur ZWO (que j’utilise en astrophoto) : http://astronomy-imaging-camera.com/wp-content/uploads/QE-ASI224.jpg

        On remarque que les courbes vont un peu dans tous les sens… sans parler des problèmes de non-linéarités dans les amplificateurs.

        Mais bon je chipote :-)

        Le message d’Aurélien étant que l’espace RGB est linéaire pour les opérations que l’on fait en photographie (ex. modifier l’exposition).

  5. Miguel Moquillon 4 septembre 2019 à 9 h 02 min - Répondre

    « Un tel découplage n’existe pas et n’a pas de sens pour le capteur de l’appareil, qui n’est qu’un colorimètre qui compte les photons qui passent à travers les filtres colorés des photosites. C’est donc l’éclairement que le capteur mesure. »

    Donc j’en conclue que si les logiciels comme Darktable mettent en avant la luminance et la chrominance, ce sont eux qui, in fine, en prenant pour référentiel la sensibilité d’un œil humain en pleine forme, convertissent l’éclairement en luminance et, par connaissance du pattern de la matrice du capteur (et via le dématriçage), en chrominance. C’est ça ?

    « Ce n’est pas une fonction de transcription, c’est un encodage non-linéaire. […] »
    Ok. Parce qu’à la source l’image est décrite dans un espace de valeurs en virgule flottante …

    Merci beaucoup pour tes explications.

    • Aurélien 4 septembre 2019 à 17 h 18 min - Répondre

      Donc j’en conclue que si les logiciels comme Darktable mettent en avant la luminance et la chrominance, ce sont eux qui, in fine, en prenant pour référentiel la sensibilité d’un œil humain en pleine forme, convertissent l’éclairement en luminance et, par connaissance du pattern de la matrice du capteur (et via le dématriçage), en chrominance. C’est ça ?

      Effectivement, on passe par un profilage du RGB capteur via l’espace XYZ et Lab.

      Ok. Parce qu’à la source l’image est décrite dans un espace de valeurs en virgule flottante …

      Exact.

      Merci beaucoup pour tes explications.

      Ça fait plaisir.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.