La photographie est un art facile, depuis que Boston Camera inventa, dans les années 1890, le Bull's eye, un appareil moyen format en cuir et bois, mono-objectif et à temps d’exposition fixe. Pas de mise au point, pas de temps d’exposition, l’appareil comporte seulement 3 réglages d’ouverture/profondeur de champ, et un déclencheur avec retardateur pour selfie. Le premier appareil point & shoot (vise & déclenche) du monde.
Pour autant, facilité ne signifie pas simplicité. Car les paramètres qui font que la photo est bonne – angle, lumière, pose, cadrage, composition, langage visuel – se trouvent hors de la boîte, et se déclinent en une infinité de combinaisons possibles, et autant d’erreurs potentielles. Les automatismes modernes des boîtiers n’ont pas amélioré la maîtrise de l’éclairage, de l’instant et des conditions de prise de vue, qui restent soumis à l’expertise du photographe, donc souvent bâclés.
Cette simplicité – technique – croissante est cependant l’aspect sur lequel beaucoup de gens se focalisent, car elle réduit la valeur immédiatement perçue de la photo, que certains vont donc tenter de restaurer par un retour « aux sources ». Fleurissent ainsi les chaînes YouTube et sites web qui vous exhortent à shooter en mode manuel, et vous expliquent comment, comme pour remettre de la dignité dans cet art perdu, ce qui n’a aucun sens sur le plan technique, car les automatismes bien utilisés sont largement plus efficaces que le pauvre humain, à condition de savoir quand ne pas leur faire confiance. C’est donc par une complexification assez artificielle qu’on tente de sauver la face, ce qui n’a pas vraiment de sens, compte tenu du fait qu’il reste bien assez de complexité dans la gestion de l’éclairage ou dans le langage visuel, par exemple, pour ne pas avoir à se rajouter des handicaps à la main. Mais cette complexité là passe inaperçu parce qu’elle ne se voit que si on en a entendu parler (sémiologie et philosophie de l’art).
Alors, vous allez manger de la règle des tiers, puis du triangle de l’exposition : la profondeur de champ ceci, le flou de bougé cela, mais gare aux ISO trop hauts. D’accord. Et après ? Les recettes de cuisine Lightroom : la clarté, assez mais pas trop, un peu plus de lumière dans les ombres, un peu moins dans les blancs, et pensez à exposer à droite. Tels effets sont cool, tels effets sont honnis, fondu au noir, cette vidéo a été sponsorisée par Nord VPN ou Square Space, likez et achetez mes collections de presets.
Et après ? Et bien c’est fini, ça s’arrête là. Circulez, rien à voir.
La photo est une débutocratie : ce sont les débutants qui ont pris le pouvoir. Ça a l’air d’être une bonne nouvelle, côté ouverture de la discipline et démocratisation, mais en fait non : un débutant est essentiellement quelqu’un qui va passer une énergie folle à se tirer dans le pied sans le savoir, et qui va expliquer aux autres comment faire pareil. Et il le saurait, qu’il est en train de se faire du mal, s’il avait plus d’expérience, où s’il écoutait les gens qui savent, mais il est autodidacte, donc il réinvente la roue tout seul dans son coin. Tout le contenu est dédié aux débutants et ce sont eux aussi qui le créent, pour des plus débutants qu’eux. Dès que tu maîtrises le triangle de l’exposition et la règle des tiers, tu peux ouvrir ta chaîne YouTube, et devenir le énième idiot à raconter les mêmes conneries. Mais attention, on raconte des conneries en tout altruisme, hein, c’est pour aider les copains qui rament. En leur bourrant le crâne d’approximations qu’ils vont devoir désapprendre un jour où l’autre, mais c’est pas bien grave. Abonnez vous et partagez.
La formation continue pour les photographes confirmés est inexistante. Pourquoi ? Les gens qui ont le niveau pour la dispenser, avec une vraie expérience pratique et théorique de ces concepts, sont trop occupés. Mais quand ils se risquent sur les forums grand public, où ils contredisent généralement l’opinion générale, ils se font démonter par des gens qui répètent ce qu’ils ont entendu, et qui pensent qu’ils savent. En fait, il faut aller les chercher sur des groupes privés de professionnels de la production, où l’on ne rentre que sur cooptation (et où, en plus, il faut parler anglais).
Vous connaissez l’adage : quand on sait faire quelque chose, on le fait ; quand on ne sait pas le faire, on l’enseigne. Ce qui peut se comprendre de deux manières : seuls les médiocres enseignent (ce qui n’est pas toujours vrai), ou c’est en enseignant qu’on apprend soi-même. Qu’on apprenne en enseignant, c’est un fait, mais dans l’intervalle, ce sont des conneries qu’on transmet à nos pauvres élèves, qui vont le prendre pour argent comptant parce que, quand on ne sait pas par où démarrer, on est prêt à faire confiance à n’importe quel baltringue qui a l’air sûr de lui. Le pédagogue a une responsabilité morale vis à vis de ses élèves, il est utile de le rappeler. Et je vous jure que j’ai vu plusieurs fois des débutants qui demandaient de l’aide pour préparer un cours, dans leur club photo, sur un logiciel avec lequel ils débutaient.
Il y a un an, je suis passé du côté développeur des logiciels photo, par frustration de ne pouvoir obtenir le résultat visuel que je cherchais, via mon logiciel (car, oui, la frustration peut aussi être un moteur vers des choses positives, n’écoutez pas les gourous du développement personnel). Incidemment, je poste beaucoup moins ici… Venant du calcul scientifique, le traitement d’image, c’est les mêmes maths, appliquées à autre chose. Pensais-je… Le traitement de la couleur est excessivement complexe. La couleur, elle-même, est complexe car elle n’a pas d’existence physique mais est une pure construction mentale qui vient de la décomposition d’un spectre lumineux en tristimulus nerveux. Les mathématiques qui relient le spectre lumineux (physique) à la couleur (perceptuelle) doivent donc tenir compte de cette double réalité, physique d’un côté, psychologique de l’autre, et les relier au bon moment et de la bonne façon. La science de la couleur est donc essentiellement de la psychophysique.
C’est à force de lire des papiers scientifiques et des normes graphiques que j’ai peu à peu compris que je n’avais pas compris. Et que pas un seul de ces charlatans du net n’a compris non plus. J’ai passé plus de 6 mois à désapprendre ce que j’ai perdu des années à apprendre ici et là. Ma « chance » est d’avoir commencé ce travail en sachant ce qu’est un espace vectoriel et un spectrophotomètre, et je ne suis pas sûr que j’y serais arrivé sans bases scientifiques et photographiques. Mais tout le monde pense savoir ce qu’est la couleur, de façon intuitive et empirique.
À peu près tout ce que vous entendrez sur internet à propos de l’étalonnage d’un écran, des mérites supposés des profils ICC, de la différence entre saturation ou vibrance, du bénéfice allégué des espaces RGB à large gamut, ou de la prétendue supériorité des fichiers 16 bits sur les 8 bits, est partiellement voire complètement faux. Photoshop maltraite la couleur de la même façon – destructive – depuis 30 ans. Lightroom n’est pas prêt pour l’édition de photos HDR, qui sortent des appareils photos modernes (HDR commence à 8 EV de plage dynamique). La chaîne de travail ICC non plus. D’ailleurs, le chaîne de couleur ICC ne se soucie même pas d’assurer la cohérence entre les couleur écran et les couleurs d’origine de la scène, elle remappe vers la couleur la plus proche dans le gamut source.
¾ des développeurs qui bossent dans les logiciels d’imagerie n’ont pas la moindre idée de ce qu’il font, mais se contentent d’appliquer à la lettre des spécifications de 1976, en pensant qu’elles doivent bien reposer sur quelque chose de sérieux. Spécifications qui font des centaines de pages, pour éviter de montrer une seule équation, car le développeur commun est nul en maths et tombe en syncope à la vue d’une somme continue. Donc on traîne des spécifications de normes de 15 km de long pour expliquer comment programmer la norme, en évitant soigneusement la théorie, qu’on pourrait résumer à quelques équations simples, jusqu’à ce que tout le monde ait oublié d’où elle vient et quel problème elle essayait initialement de résoudre (parce que, 30 ans après, le problème a changé, mais le protocole est resté, patché par de la cochonnerie pour que ça marche plus ou moins).
95 % des photographes utilisent les logiciels de retouche sans avoir la moindre idée de la façon dont ceux-ci flinguent leurs couleurs, mais aussi les fusions/masquage et les flous, en travaillant sur des fichiers encodés en gamma, au lieu de les linéariser. Bref, c’est le bordel dans la chaîne de traitement d’image numérique, avec des protocoles et des habitudes vétustes, créés dans les années 1970-80 pour travailler sur des négatifs scannés, et bricolés de façon immonde pour les adapter à la photo numérique en essayant de conserver la base de la norme simplement parce que tout le monde l’utilise et la connaît.
En fait, l’industrie du cinéma a réglé depuis longtemps des problèmes avec lesquels les photographes sont toujours en train de se battre, en joignant les dollars d’Hollywood à l’expertise de Kodak. Ça fait un certain nombre d’années que les studios de cinéma doivent fusionner des vidéos issues de pellicule scannée, de caméras numériques et des effets spéciaux de synthèse, et ces contraintes beaucoup plus exigeantes les ont forcés à travailler proprement pour intégrer tout ça sans couture apparente, et donc à développer une chaîne de couleur basée sur la physique. L’Académie des Oscars a donc un service recherche et développement qui maintient le ACES (Academy Color Encoding System), un ensemble d’algorithmes publiés sous licence Open Source permettant d’effectuer toutes les opérations fondamentales de traitement de la couleur, en pouvant transférer les réglages entre différents logiciels.
Pourquoi ces « nouvelles » méthodes (qui ont quand même déjà 20 ans, pour certaines) de gestion de la couleur ou de traitement des fichiers HDR ne sont toujours pas passées à la photo est un mystère pour moi, probablement dû en partie aux normes ICC et à 30 ans d’habitudes. Toujours est-il qu’il existe des algorithmes meilleurs, mais qui nécessitent de repenser totalement la chaîne de travail photo, et donc de changer nos habitudes. Le changement est très simple : il faut arrêter de faire n’importe quoi sur la couleur, en manipulant les images dans des espaces de couleur perceptuellement homogènes (ce qui a pourtant l’air intuitif), et traiter les images comme des émissions lumineuses, de façon physiquement réaliste, dans des espaces énergétiquement homogènes (en clair : des espaces ou les valeurs RGB des pixels sont proportionnels à l’énergie de la lumière qu’ils enregistrent). Ainsi, chaque filtre numérique devient l’exacte reproduction, par le calcul, d’un filtre analogique, et l’on obtient de meilleurs résultats visuels en moins d’étapes. Ça a moins d’effets secondaires indésirables, et le résultat est plus réaliste.
Me voilà donc en train d'expliquer aux gens ce qu’ils ont à y gagner, mais ce que ça va leur coûter : essentiellement, le besoin de s’approprier la théorie derrière l’outil, parce que cette chaîne de travail est moins simpliste et différente de ce à quoi ils sont habitués, et qu’elle s’utilise beaucoup plus difficilement que les outils actuels, si l’on ne comprend pas ce qu’ils font, mais plus rapidement, quand on sait ce qu’on fait.
L’implicite caché de la débutocratie, c’est que les logiciels photo doivent être facilement accessibles aux débutants. Un implicite qui n’a pourtant rien d’évident mais qui correspond à une réalité : le manque de formation à la psychophysique de la couleur et à la physique de la lumière dans les milieux graphiques, même chez les pros (souvent autodidactes, au demeurant), où l’essentiel du travail se résume à tirer et pousser des curseurs de logiciels propriétaires, dont on n’a pas la moindre idée de ce qu’ils font sous le capot, mais « ça me permet de faire ce dont j’ai besoin ». Et puis, bien sûr, l’amour de la gratification immédiate fait que tu te fais traiter d’élitiste à chaque fois que tu invites les gens à faire un effort.
Il y a 20 ans, les gens s’émerveillaient de la magie de l’informatique, qui rendait simples et accessibles des choses auparavant complexes et longues. Aujourd’hui, cette magie, elle ne les émerveille plus, ils l’exigent et la prennent pour acquise, sans se rendre compte qu’elle les a aliénés, puisqu’ils ne sauraient reproduire le même résultat avec un autre outil, et dépendent donc d’un logiciel spécifique, qu’ils utilisent avec leur mémoire plutôt qu’avec leur jugement. Piégés dans une interface, ils sont inadaptables si on la leur change, car il ne raisonnent pas en terme d’objectifs de retouche, mais d’effet du curseur du logiciel.
Ceci pose un problème : un photographe, même amateur ou débutant, est un créateur. Un créateur est quelqu’un, de façon très générale, qui utilise des outils pour pratiquer un artisanat afin de produire quelque chose d’original. Et tout se passe comme si on avait retiré l’artisanat de la photo, sous l’implicite que la photo devait être accessible facilement sans savoir-faire. En clair, plus on leur en donne, plus ils en veulent.
Certes, la photo grand public, celle des téléphones et des compacts numériques, n’a aucune prétention artisanale. Cependant, les simplifications qui l’ont permise, en terme d’interface, ont été faites au prix d’approximations dans les algorithmes et dans les modèles de couleur, qui détruisent la qualité d’image et ne fonctionnent bien que dans les cas sympas, c’est à dire pas tout le temps. Du coup, on fait quoi, quand ça ne marche pas ? On bricole des pansements pour jambe de bois. La gestion des bleus saturés, en photo numérique, reste un exemple clair d’échec de ces algorithmes : les photographes de concert sont habitués à voir leur bleus virer vers le pourpre, de même que les paysagistes voient leur ciels bleus tirer vers le cyan. Les raisons en sont purement mathématiques et parfaitement connues. La solution est, « simplement », de changer les modèles de couleur, pour passer à des représentations RGB physiquement réalistes. Mais ces modèles, plus robustes, sont aussi moins simples, conceptuellement. Tout se paie.
Ces modèles ne sont pas interfaçables avec les anciens, et il n’y a pas de façon de récupérer le meilleur des deux mondes, pour faire un logiciel tous publics où les débutants auraient la simplicité de l’ancien modèle et les pros, la robustesse du nouveau. Ce sont deux représentations différentes et incompatibles de la même réalité, au même titre que la physique newtonienne et la physique quantique sont irréconciliables.
Actuellement, la mode est aux logiciels à visée professionnelle mais à l’ergonomie simplifiée sur le modèle des applications grand public. Le problème est que la simplification n’est pas juste ergonomique. La simplification implique toujours de s’arranger avec la théorie pour faire disparaître des variables de l’équation. De telles simplifications impliquent des cas limites où le modèle simplifié va échouer, et où ça va se voir. Et dans ces cas d’échecs, les bidouillages correctifs sont en fait beaucoup plus compliqués que le modèle complet, prenant en compte toutes les variables, sans simplification. Par contre, le modèle simplifié évite au photographe d’appréhender la physique de la lumière pour dépasser la non-intuitivité a priori de l’outil.
Le problème de l’intuitivité, c’est que ça ne marche pas. La matière est composée d’atomes, eux-mêmes composées à 99,99 % de vide, au milieu duquel se baladent des nucléons. Donc la matière, c’est essentiellement du vide. Pourtant vous ne voyez pas à travers ce mur. Est-ce intuitif ? Tout corps dont la température est supérieure au zéro absolu (- 273 °C) subit une agitation moléculaire, donc un mouvement infinitésimal. Pourtant, ce mur a l’air parfaitement inerte. Est-ce intuitif ? On pourrait multiplier les exemples… Rien n’est intuitif, quand on y regarde de près, et c’est bien pour ça que tout est complexe et que ça nous a pris des millénaires à comprendre aussi bien la physique que la biologie ou la psychologie.
En pratique, l’intuitivité se résume à quelque chose d’inconnu qui se comporte comme quelque chose qu’on connaît déjà, ce qui permet donc de faire l’économie d’un nouvel apprentissage en procédant par analogie avec ce qu’on connaît. Mais quand je ne connais rien, on fait comment ? Le simple concept d’intuitivité pour un débutant est une contradiction dans les termes, puisqu’on ne peut rendre intuitif quelque chose qu’on n’a jamais vu. Les choses qui seront intuitives pour quelqu’un ayant commencé la photo à l’ère argentique, avec une pratique de la chambre noire, ne seront pas les même que celles intuitives pour quelqu’un ayant commencé la photo avec un iPhone. « Intuition » est le mot sexy pour dire « préjugés ».
La débutocratie, c’est mal. C’est d’abord une mauvaise formation des débutants par les débutants, avec tout ce qu’elle comporte d’approximations et d’erreurs qui vont se propager et faire perdre du temps à tout le monde. Ensuite, c’est une forme de paresse intellectuelle où l’on exige des résultats magiques en quelques clics sans fournir l’effort de compréhension nécessaire à une utilisation raisonnée de l’outil. Et la paresse se paie toujours, à long terme. C’est donc, de fil en aiguille, un paradigme complet, en terme de conception d’outils et d’interfaces pour travailler l’image, qui tend vers le nivellement par le bas, où l’on prive les artisans du contrôle sur leur outil au nom de la démocratisation, et où l’on vend aux débutant « tout pour pas cher », alors qu’on les enferme dans un système dont les seuls qui ont la clé sont aussi ceux qui encaissent les chèques. Ce sont des besoins de plus en plus incompatibles entre les professionnels et les amateurs, que le marketing contribue à brouiller allègrement à coup de fausses promesses. Et finalement, c’est une impasse pour tout le monde car de nombreux problèmes n’ont pas de solution dans cet espace simplifié.
Il n’y a pas d’un côté les ingénieurs, et de l’autre les artistes. Les deux ne sont pas mutuellement exclusifs, et la vision romantique de l’artiste vivant dans son monde immatériel est contredite par de nombreux exemples, de Léonard de Vinci à Ansel Adams, qui ont été capables de faire progresser leur art justement par une compréhension de ses fondements techniques et scientifiques. Il y a des gens qui comprennent ce qu’ils font, et les autres, qui subissent les événements qui leur arrivent. Ceux qui veulent faire l’économie de la compréhension, en pensant gagner du temps, perdront infiniment plus de temps, plus tard, à se battre avec l’outil, quand celui-ci les trahira. Les stratégies payantes à court terme sont toujours très coûteuses à long terme.
Il faut remettre l’artisanat dans la photo, et vite. Rendre les choses plus simples ne va pas les rendre plus faciles ni plus efficaces (et, oui, c’est contre-intuitif), cela va juste retirer aux gens les outils nécessaires pour embrasser la complexité des choses et en tirer le maximum. Mais aussi, de façon perverse, cela va creuser le fossé entre les rares personnes qui comprennent cette complexité et les autres, et donc accroître le pouvoir de celui qui vous vend l’outil qui vous autorise à rester idiot car il vous place en position de dépendance et d’infériorité vis à vis de lui, tout en ayant intérêt à ce que vous restiez idiot. La simplification apparente, dans l’interface, s’accompagne toujours d’une opacification croissante de la mécanique sous-jacente, et donc, plus on simplifie l’usage, plus on verrouille la compréhension pour celui qui voudrait s’y intéresser.
Est-ce que c’est vraiment cela que vous voulez, vous faire ostraciser de votre propre travail photographique ?
Leave A Comment