À lire régulièrement des demandes de conseil pour du matériel informatique, sur les réseaux sociaux, il est manifeste que les gens ne comprennent pas leurs outils, et que même de nombreux technophiles racontent n’importe quoi. Je vous propose ici un tri des idées reçues, basé sur des faits mesurables et vérifiables.

Table of Contents
  1. Je veux un portable puissant tout mince
  2. Plus de mémoire vive, c’est plus de vitesse ?
  3. Plus de cœurs, c’est plus de vitesse ?
  4. Une carte graphique sinon rien ?
  5. La 4 K optionnelle ?
  6. Les problèmes de compatibilité
  7. Conclusion

#Je veux un portable puissant tout mince

Les gens veulent de la puissance, mais dans un tout petit boîtier. Apple et ses MacBook Pro ont ouvert l’avenue des ordinateurs portables superlatifs : puissance, compacité, autonomie maîtrisée… ils ont tout pour plaire (sauf le prix et l’impossibilité de réparer les composants). Mais…

Le problème, c’est que la puissance, ça dégage de la chaleur, et que pour refroidir, il faut souffler de l’air, et que souffler de l’air dans un tout petit boîtier, c’est difficile. Certains ultrabooks n’ont même plus de ventilateur, mais utilisent le boîtier pour dissiper la chaleur par conduction (les très populaires Dell XPS et Apple MacBook Pro, par exemple). En pratique, ces ordinateurs mal refroidis voient alors leur puissance réduite : les processeurs sont munis de sécurités et de bridage thermiques. Quand une certaine température est atteinte, la vitesse de calcul est alors automatiquement réduite pour ne pas emmener l’électronique dans sa zone rouge. Résultat : sur les Dell XPS, par exemple, le glorieux Intel i7 fonctionne à sa puissance maximale pendant seulement quelques secondes, le temps d’arriver à 85 °C, avant d’être ensuite bridé à 67 % de sa puissance. Ça fait un peu mal de payer un processeur cher et puissant pour disposer en pratique de seulement ⅔ de sa puissance parce qu’il est mal refroidi. Le problème se pose aussi sur les Microsoft Surface.

Vous voulez de la vraie puissance disponible (pas juste théorique et écrite sur l’étiquette) ? Vous devez soit choisir un ordinateur de bureau classique (une tour) soit opter pour un portable avec un vrai système de refroidissement actif (des ventilateurs), ce qui exclue les hyper-portables hyper-minces et hyper-légers. Dans tous les cas, un ordinateur bien refroidi, ce n’est jamais un ordinateur mince sans ventilateur. Et si vous avez un portable avec une carte graphique, il faut idéalement 2 ventilateurs : un pour le processeur, un pour la carte graphique. Sinon les deux sont sur le même heatsink, et la carte graphique chauffe le processeur.

#Plus de mémoire vive, c’est plus de vitesse ?

La mémoire vive, aussi appelée RAM, sert à stocker les résultats intermédiaires des calculs effectués. Car, rappelons le, un ordinateur n’est qu’une grosse calculatrice. Quand on ouvre une image dans un logiciel de retouche, la RAM sert à stocker l’image, mais aussi sa version redimensionnée à la taille écran, l’historique des actions, et peut-être certaines étapes intermédiaires. L’avantage de stocker tout ça est d’éviter d’avoir à le recalculer à chaque modification. La RAM permet aussi de mettre en cache des ressources temporaires, qui sont alors accessibles plus rapidement que s’il fallait aller les chercher sur le disque.

Donc en gros, la RAM c’est l’établi de votre atelier : vous pouvez y poser les pièces en cours de fabrication, les outils à avoir sous la main tout de suite, etc. et plus il est grand, plus vous pouvez avoir d’outils et de pièces en cours d’utilisation en même temps. Tout ce qui est dans la RAM vous tombe sous la main immédiatement. Si la RAM est limitée, il faut aller chercher plus souvent dans les étagères, et ça prend un peu de temps.

La RAM peut accélérer l’exécution des logiciels que vous utilisez parce qu’elle évite de refaire les mêmes calculs et garde les informations à proximité du processeur. Mais toutes les RAM ne naissent pas égales, et croire qu’il suffit d’en avoir beaucoup est illusoire. En effet, la RAM, comme toute mémoire, se lit et s’écrit à une certaine vitesse. Cette vitesse dépend de sa fréquence d’horloge (on trouve des RAM entre 667 et 3000 MHz) mais aussi de son CAS, c’est à dire la fréquence d’accès à une colonne. Je passe sur les détails techniques, mais pour résumer : la taille ne fait pas tout, la vitesse compte aussi, et cette vitesse dépend de la fréquence (qui influe directement sur le prix) mais aussi de la façon dont la mémoire est indexée. Tout ceci peut se synthétiser par une latence (un temps de retard) globale, que mesurent différents tests et bancs d’essais.

De plus certaines RAM ont plus ou moins d’affinité avec certains processeurs, et tous les logiciels n’utilisent pas la RAM de la même manière, ça dépend aussi du système d’exploitation utilisé mais là ça devient trop technique pour un article à destination des créateurs de contenu visuel.

Donc la morale, c’est que l’implication {plus de mémoire vive} ⇒ {plus de vitesse} n’est pas automatique, ça se peut mais ça dépend, et la RAM ne se choisit pas uniquement sur les spécifications de la fiche technique du constructeur, mais surtout sur les résultats des essais. Et là, c’est votre responsabilité de consommateur de faire vos recherches avant l’achat.

Maintenant, combien de Go de RAM sont nécessaires ? Avant toute chose, il faut savoir que les systèmes d’exploitation ont un mécanisme de cache disque qui permet d’étendre la RAM lorsqu’elle est pleine, en utilisant un fichier temporaire, ou sous Linux, un espace d’échange (le swap). Donc, dans l’absolu, on a besoin de 4 Go de RAM environ, pas plus. Le problème, c’est que le cache disque est beaucoup plus lent que la vraie RAM, donc ça reste une solution de secours. À titre d’indication, la « vieille » RAM DDR3 à 1333 Mhz (courante dans les laptops moyen-haut de gamme autour de 2012) a un débit de lecture-écriture théorique de 21 Go/s. C’est 7 fois plus rapide que le débit théorique des meilleurs disques SSD modernes (3 Go/s, en pratique plutôt à 1-2 Go/s).

La quantité de RAM confortable dépend du type de production que vous réalisez. En photo, pour traiter des fichiers bruts de 12-16 Mpix, 8 Go sont très corrects. À partir de 24 Mpix, 16 Go sont plus confortables. Pour des résolutions de 50 Mpix et plus, 32 Go sont appréciables, surtout quand on multiplie les calques sous Photoshop. Quant à la vidéo, cela dépend beaucoup de la gestion de la mémoire de votre logiciel. 16 Go semble être un minimum pour la vidéo Full HD, mais la 4 K risque de rapidement demander 32 Go.

Enfin, gardez à l’esprit qu’il vaut mieux utiliser des barettes de RAM en double (2×8 Go par exemple) qu’en simple (1×16 Go) pour tirer parti des canaux multiples, qui pourraient améliorer de 3 à 17 % la vitesse de lecture/écriture suivant les logiciels (plutôt 5 % en pratique). Ça n’est pas grand chose, mais c’est une amélioration « gratuite » (dans le sens où le prix de 2 barettes de 8 Go est souvent le même qu’une seule de 16 Go).

#Plus de cœurs, c’est plus de vitesse ?

En 2004, les Pentium 4 atteignaient 3,8 GHz de fréquence, c’est à dire 3,8 milliards de calculs par seconde. Aujourd’hui, la plupart des processeurs grand public (ceux que vous pouvez vous payer…) ne dépassent pas 2,8 à 3,1 GHz. La différence, c’est qu’on a compris que ça serait plus avantageux (pour la consommation électrique et le prix) de multiplier les cœurs que de continuer à augmenter la fréquence. Ainsi sont nés le Core Duo (2 cœurs), puis le i3, i5 et i7 etc.

On pourrait donc se dire qu’avoir plus de cœurs implique une meilleure performance : c’est un peu comme avoir plusieurs processeurs. Ça n’est pas aussi simple.

Utiliser plusieurs cœurs implique d’écrire un logiciel spécialement étudié : on créée un processus de calcul par cœur, la difficulté principale est alors de synchroniser les processus et de les faire communiquer ensemble s’ils doivent échanger des informations. On appelle ça le parallélisme et ça se conçoit dès le départ, au niveau de l’architecture du logiciel. Problème : Photoshop est né en 1990, Lightroom en 2002, etc. Ces logiciels ne sont pas conçus à la base pour tirer parti du multicœur, qui n’existait pas sur des ordinateurs personnels à ces époques.

Évidemment, les logiciels évoluent. Mais ce type de changement impacte les fondements du logiciel et impose des changements majeurs, qui ne se font pas en 2 ans. En pratique, ce sont certains filtres et certains modules seulement qui sont capables d’utiliser plusieurs cœurs. Des tests réalisés en 2015 montrent que, sous Lightroom, le passage de 4 à 8 cœurs physiques augmente les performances de seulement 11 % en moyenne, et que certains processeurs de 4 cœurs offrent la même performance que certains processeurs de 6 cœurs. On voit en fait que les performances sont directement liées à la fréquence du processeur, et pas à son nombre de cœurs. Donc Lightroom n’utilise probablement qu’un seul cœur, d’où la sensibilité à la fréquence.

En revanche, DXO Optics Pro montre une amélioration des performances directement liée à la fréquence et au nombre de cœurs. Donc il est capable, par design, de tirer parti de cette architecture.

Le même test réeffectué en 2018 montre toujours la même sensibilité de Lightroom à la fréquence, et sa relative indifférence au nombre de cœurs. Idem, DXO Optics montre toujours la même sensibilité au nombre de cœurs.

Est-ce qu’un plus grand nombre de cœurs améliore les performances ? En fait, ça dépend uniquement du logiciel utilisé, et de la façon dont il est capable d’utiliser (ou pas) plusieurs processus d’exécution. Pour Lightroom en tout cas, il est plus économique d’opter pour un processeur 4 cœurs très rapide que pour un processeur 6-8 cœurs.

#Une carte graphique sinon rien ?

La carte graphique est un processeur, donc encore une machine à calculer, qui ressemble au processeur classique mais diffère par le nombre de cœurs : on parle de 144 à 1024 cœurs sur les cartes pour ordinateur personnel. La carte graphique a aussi une fréquence inférieure (1.4 à 2 GHz maximum). Elle est en fait optimisée pour le traitement parallèle de données systématiques, quand on applique le même filtre sur un grand nombre de données (comme les pixels d’une image).

Le problème est le même que ci-dessus : la carte graphique a une architecture qui n’est pas systématiquement utilisée par les logiciels de retouche. Ceux-ci se servent en général de la librairie OpenCL pour décharger du calcul sur la carte graphique. Et la performance d’OpenCL sur une carte graphique donnée dépend de la qualité de son pilote… Donc on n’a aucun moyen intuitif de prévoir la performance ou le gain apporté par telle ou telle carte graphique a priori.

De plus, sous Photoshop, il n’y a que 7 fonctionnalités mineures qui requièrent absolument une carte graphique pour fonctionner, et ce sont principalement les filtres de flou et de netteté qui peuvent optionnellement tirer parti de la carte graphique. Pas de quoi en faire un incontournable.

Enfin, la carte graphique était initialement dédiée aux jeux vidéos, donc au temps réel, où l’on doit calculer 60 images par seconde. De plus en plus d’usages (data-mining, machine-learning, synthèse 3D, raytracing, etc.) n’impliquent pas nécessairement cette réactivité temps-réel, et on a vu apparaître des cartes graphiques spécialement optimisées pour ces usages, qui ont des performances inférieures en jeux vidéos (Nvidia Quadro). Là encore, il faut se méfier de la lecture a priori de la fiche technique, et ne pas se fier aux tests de FPS sur des jeux vidéos pour préjuger de la performance en calcul temps-différé.

#La 4 K optionnelle ?

La très haute résolution n’en est qu’à son début et peut sembler anecdotique, d’autant plus qu’elle demande plus de puissance au processeur graphique et consomme plus d’énergie. Cependant, l’effet secondaire de la 4 K, auquel on pense moins, est le gamut, c’est à dire l’espace de couleurs que peut restituer l’écran. Les graphistes ont deux espaces de couleur de travail : le sRGB pour le web et la plupart des imprimantes, et le Adobe RGB pour l’impression d’art. Un écran est toujours un peu imparfait, et n’affichera jamais 100 % du gamut sRGB, n’essayons même pas avec Adobe RGB.

Aux alentours de 2016, on a vu apparaître les premiers écrans d’ordinateurs portables affichant en pratique presque 100 % du gamut Adobe RGB (pas juste dans le marketing), ce qui est une avancée majeure pour les graphistes, photographes et vidéastes qui travaillent en environnement colorimétrique contrôlé, et pour qui ces performances étaient auparavant réservées aux moniteurs externes. Par effet de bord, la quasi-totalité de ces écrans sont en 4 K. On pense aux HP Zenbook, Thinkpad P, Dell XPS et Precision, Apple MacBook, etc.

D’autres paramètres sont à considérer pour l’écran du graphiste : une technologie LED IPS pour l’homogénéité de l’affichage sous tous les angles (tous les écrans proches de 100 % du gamut Adobe RGB sont en IPS) et l’absence de régulation de la luminosité par PWM pour éviter le scintillement, fatiguant à la longue. Enfin, on évitera les écrans tactiles, qui doivent ajouter une surcouche capacitive par dessus l’affichage, ce qui dégrade systématiquement le rendu des couleurs en plus de diminuer l’autonomie de la batterie, sans parler des traces de gras sur l’écran.

#Les problèmes de compatibilité

Grands classiques de l’utilisateur de Linux, un peu moins embêtants sous Mac OS et inconnus des utilisateurs de Windows, les soucis de compatibilités sont ceux qui vous empêchent d’utiliser certains matériels par manque de pilotes adéquats.

Par exemple, les pilotes de cartes graphiques sous Linux sont une plaie incommensurable. Le système Nvidia Optimus est une galère quotidienne à faire marcher, et on est loin de l’activation à la demande de la carte graphique qu’on connaît sous Windows. Toujours sous Linux, les cartes graphiques ATI/AMD ne fonctionnent pas avec OpenCL. Pourtant, quand ça marche, ça marche souvent un peu mieux que l’équivalent Windows.

#Conclusion

Un système informatique n’est pas juste un empilement de composants, c’est une chaîne dont la performance globale est limitée par son maillon le moins performant. Or la performance ne dépend pas uniquement du matériel, mais de la capacité de vos logiciels à en tirer parti.

Vous pourriez être irrationnel, acheter le meilleur du meilleur et vous monter un système informatique à quelques dizaines de milliers d’euros. Malheureusement, la plupart d’entre nous sommes limités par le budget, et il faut alors acheter intelligemment.

La règle du pouce, ici, est que le prix évolue de façon exponentielle en fonction de la performance. Dans le cas de Lightroom, passer d’un processeur i5 7500 à un i7 7820X multiplie le prix par 2,4 mais multiplie seulement la performance par 1,7. Le facteur auquel on pense moins est la puissance électrique, puisqu’elle est multipliée par 1,4, ce qui a un impact sur l’électricité consommée mais aussi l’alimentation requise.

La seconde règle est qu’on ne peut pas prédire a priori la performance réelle d’un système informatique juste en regardant ses spécifications : ça dépend de l’architecture du logiciel utilisé, de sa capacité à utiliser le matériel, puis du processeur, de la RAM et de la carte graphique s’il y en a une, ainsi que de la qualité du pilote graphique.

La troisième règle, c’est que si vous voulez vraiment de la performance, allez harceler l’éditeur de votre logiciel pour qu’il optimise son foutu code. Le problème des gros éditeurs est qu’ils ajoutent des morceaux de code dans leurs logiciels à mesure qu’ils rachètent des start-ups et des brevets : ce n’est pas toujours bien intégré, parfois on met des rustines sur des jambes de bois, et ça finit par être du code spaghetti écrit avec les fesses façon Microsoft. Pour avoir joué avec du code de traitement d'image assez bas niveau, je peux vous dire que l’optimisation c’est dur, mais ça paie, et c’est la moindre des choses que de commencer par tirer parti du matériel existant, au lieu de demander aux gens de le renouveller (quoique moins bon pour le business). C’est là qu’on voit la supériorité de DXO, qui propose des logiciels au code récent, avec des technologies développées en interne et parfaitement maîtrisées. En revanche, que Lightroom n’utilise pas tous les cœurs disponibles est inadmissible à ce prix là.

Choisir intelligemment un ordinateur, c’est savoir pour quel logiciel vous en avez besoin, puis comprendre quelles ressources le logiciel exploite, puis chercher des tests et comparer les mesures de performances sur des cas d’utilisation réels. En tant que consommateur, vous avez la responsabilité de vous renseigner.

Personnellement, je recommande les ordinateurs portables Lenovo Thinkpad. Ces ordinateurs (que certains qualifieront de laids) sont conçus pour les professionnels, avec une construction mécanique renforcée (coque en composite fibre de verre/plastique) qui passe les normes militaires, des claviers extrêmement confortables et résistants aux liquides (au hasard : au café). Ils sont entièrement démontables et peuvent évoluer. Ils sont généralement bien refroidis et leurs batteries sont parmi les plus massives du marché, avec la possibilité de choisir leur taille. Enfin, à performances égale (même composants) avec un Apple MacBook Pro, le Thinkpad coûte entre 50 et 70 % du prix du Mac. Ils sont aussi beaucoup plus faciles à revendre d’occasion que n’importe quelle autre marque (du fait de leur réputation indestructible).

Enfin, gardez en tête que les chiffres avancés par le marketing des fabricants ne sont pas nécessairement représentatifs des performances réelles. À ce titre, les technophiles qui pensent savoir ce qu’est un ordinateur sont aussi facile à tromper que les autres : ils savent lire les chiffres sur la fiche technique, mais pas nécessairement anticiper leur impact réel à l’usage. Il ne suffit pas d’avoir un ordinateur avec un i7 et une carte graphique pour qu’il soit performant. Ça dépend quel i7, quelle carte graphique, et pour quel logiciel. Comme presque toujours, les choses ne sont pas aussi triviales qu’elles en ont l’air, et c’est toujours la mesure pratique qui a le dernier mot sur la théorie.