Jan
16
2014
Si DxO Optics Pro a su tirer son épingle du jeu malgré la domination de Lightroom, le banc d'essai optique DxO Analyser a fait bien mieux en devenant incontournable. Tous les labos de tests sérieux en sont désormais équipés, ou finiront par l'être, son adoption par dpreview ayant scellé le sort de ses concurrents. Il faut saluer cette belle réussite de l'ingénierie française dans un domaine, l'imagerie numérique, largement dominé par les Anglo-saxons et les Japonais. Ce banc d'essai, DxO Labs l'utilise pour créer les fameux modules de correction optiques embarqués dans DxO Optics Pro et dans DxO ViewPoint 2. L'éditeur, qui caractérise également les capteurs des appareils photo, met à disposition gratuitement sur le site DxOMark une synthèse de ces mesures qui fournissent une évaluation de la qualité des matériels testés et, dans le cas des boîtiers, permet de les comparer entre eux. Cette mine d'informations a cependant deux défauts : la quantité, qui peut noyer l'amateur, et la seule disponibilité en langue anglaise qui peut décourager le Français. DxOMark étant devenu une source d'information majeure pour qui s'intéresse au matériel ou envisage une acquisition, je vous propose un mode d'emploi du site, en commençant par le décryptage des mesures et des scores des capteurs.
Comprendre les mesures et les scores DxOMark #1 : les capteurs

Principes de l'évaluation DxOMark des capteurs
Je ne m'étendrai pas sur le protocole d'évaluation des capteurs, d'autant moins que je ne le connais pas en détail. Ce qui frappe quand on visite le labo de DxO Labs à Boulogne, c'est le grand professionnalisme des tests effectués. Il s'agit clairement d'un processus industriel, très loin de ce qui est accessible par les amateurs.

Il est important de savoir, avant toute autre chose, que les mesures sont faites sur le fichier Raw avant tout traitement. Elles évaluent ainsi le potentiel intrinsèque du capteur avant le dématriçage et toutes les opérations logicielles réalisées par le processeur (ou par un logiciel de développement) pour produire le Jpeg. C'est là une différence fondamentale avec tous les labos qui shootent des mires et examinent des bitmaps (imprimés ou sur écran), évaluant ainsi toute la chaîne de traitement. Un tel protocole produit autant de résultats différents que de réglages du boîtier ou de paramétrages du logiciel de développement. Ceux qui évaluent le Jpeg direct avec les valeurs par défaut du boîtier, comme s'il s'agissait d'une vérité transcendantale, ne sont pas plus pertinents que les autres. Dans tous les cas, ce qui est évalué est seulement une interprétation du Raw, une parmi une infinité. Dans le meilleur des cas, ces mesures viennent en complément de celles, objectives, de DxO Labs.
L'autre singularité de l'évaluation DxOMark est la normalisation des résultats qui permet de comparer des boîtiers dont les capteurs ont des définitions différentes. Nous verrons que les mesures brutes sont également fournies, mais ce ne sont pas elles qui servent pour le calcul des scores. Là encore, cela fait toute la différence avec la palanquée de sites qui comparent des boîtiers en pixel peeping, induisant de lourdes erreurs d'analyse et de diagnostic. Même un site majeur comme dpreview n'a pas su éviter cette erreur, comme je l'avais montré il y a quelques années.
Ce choix judicieux de DxOMark a notamment permis de battre en brèche l'idée fausse qui stipule que plus un capteur a de pixels, plus le bruit est élevé. C'est vrai au niveau du pixel, mais faux si on examine le résultat à taille de tirage ou d'affichage identique. La route est encore longue pour convaincre tout le monde, mais l'apport de DxO Labs est précieux.
DxO Labs mesure trois catégories de caractéristiques : la profondeur de couleur, la dynamique et la sensibilité. À partir de ces mesures, trois scores thématiques et un score global sont produits (nous en parlerons plus loin). Le score global est normalisé pour un tirage 20x30 cm à 300 dpi. Ce choix, fait il y a plusieurs années quand les capteurs affichaient une définition moyenne de 10-12 Mpx, mériterait sans doute d'être réévalué, mais il reste pertinent pour la majorité des photographes qui impriment rarement en A3+ et au-delà.
Trouver ses repères sur le site DxOMark
DxOMark contient tellement d'informations qu'il n'est pas toujours aisé d'y trouver ce que l'on cherche. La nouvelle mouture a opté pour un menu déroulant classique.

Celui qui va nous intéresser aujourd'hui est le menu "Cameras" qui comporte trois sous-menus : la base de données des capteurs, le classement des capteurs et une modalité de comparaison de boîtiers.

La base de données peut être filtrée par de nombreux critères : le constructeur, la définition du capteur (en Mpx), le type d'appareil, le format du capteur et le prix d'introduction de l'appareil. On voit ci-dessus la présentation de la base avec le filtre "Sony". On peut accéder par cette page aux mesures de chaque boîtier testé (marqué "Tested" en gris) en cliquant sur son nom ou sur sa vignette. On peut aussi le sélectionner dans l'optique d'une comparaison.

Le sous-menu "Camera Sensor Ratings" aboutit à une page comme celle ci-dessus. Tous les boîtiers sont classés dans un menu déroulant et sont pointés sur un graphe en fonction de leur date de sortie et de leur score global. La liste peut être réduite à l'aide des filtres cités plus haut. Cliquer sur un appareil dans la liste déroulant ou sur le graphe ouvre la page dédiée aux mesures du boîtier.
Décryptage des mesures et des scores
La page dédiée à un boîtier se présente comme dans l'exemple ci-dessous.

Le score "Portrait" correspond à la profondeur de couleur. Il indique le nombre maximal de nuances de couleurs, exprimé en bits, que le capteur peut enregistrer. DxO Labs considère que le résultat est excellent à partir de 22 bits.
Le score "Landscape" correspond à la plage dynamique. Il indique le nombre maximal de niveaux de luminosité, exprimé en IL (ou EV), compris entre la tonalité la plus sombre (non noire) et la tonalité la plus claire (non blanche) que le capteur peut enregistrer. Un résultat de 12 IL est considéré comme excellent.
Le score "Sports" correspond à la sensibilité en basse lumière. Il est pour l'essentiel issu des mesures du rapport signal/bruit de l'appareil. Pour synthétiser ces mesures, DxO Labs a choisi d'indiquer la sensibilité de l'appareil qui produit un SNR de 30 dB, considéré comme excellent.
Le score "Overall Score", synthèse de ces trois scores thématiques, est normalisé afin de rendre les boîtiers comparables. Il suit une progression logarithmique (5 points correspondent à environ 1/3 IL) et l'échelle est ouverte (il ne s'agit pas d'un pourcentage).
En cliquant sur l'onglet "Mesurements", on accède à plusieurs graphiques résumant les mesures.

Le premier graphique "ISO Sensitivity" donne la sensibilité réelle de l'appareil comparée à celle indiquée par le constructeur. Ainsi, sur l'Alpha 7R, la sensibilité 400 ISO correspond en réalité à une sensibilité de 292 ISO. Ce graphique est avant tout informatif et peut mettre en évidence des sensibilités "artificielles", comme ici les 50 ISO de l'Alpha 7R qui sont en réalité une simple interpolation du 100 ISO. Cela étant, le fait que les sensibilités réelles soient (très souvent) inférieures aux sensibilités annoncées n'est pas un problème (c'était déjà le cas en argentique).

Le "SNR 18%" est le rapport signal sur bruit pour un gris moyen de réflectance 18% (qui correspond à la luminosité moyenne d'une photo normalement exposée). Le score "Sports" est issu de ce graphe (c'est la valeur de la courbe pour un SNR de 30 dB, ici 2746 ISO réels). On constate que la courbe décroît très linéairement, la perte étant d'environ 3 dB à chaque augmentation de 1 IL de la sensibilité (qui correspond à une multiplication de sa valeur par 2). Ce graphique "Print" affiche les valeurs normalisées.

Le graphique ci-dessus est également un SNR 18%, mais cette fois en mode "Screen" (à sélectionner dans le coin supérieur gauche), c'est-à-dire en visualisation à 100% (pixel peeping). L'écart avec le score "Print" est de 6.6 dB, qui correspond au rapport de définition entre la référence de normalisation (environ 8 Mpx) et l'appareil (36 Mpx). Chaque multiplication par 2 du nombre de pixels fait plonger le SNR d'environ 3 dB. Quand on examine le résultat d'un boîtier comme le Canon EOS 30D, dont le capteur est un 8 Mpx, on constate que les deux courbes "Print" et "Screen" sont identiques, le boîtier possédant la définition de référence. Comparer le SNR "Screen" de deux boîtiers dont les capteurs ont une définition différente est donc une erreur méthodologique, comme le sont les comparaisons d'images en zoom 100 % qui pullulent sur la toile.

Le graphique "Dynamic Range" donne la mesure de l'étendue de la plage dynamique que le capteur peut enregistrer pour chaque sensibilité. Le calcul dépend du seuil au-delà duquel on considère que le signal est trop bruité. Celui choisi par DxO Labs est de 0 dB. Avec un seuil plus sévère (10 ou 20 dB), la forme de la courbe ne serait guère modifiée, mais les valeurs seraient plus faibles (ce qui peut expliquer les différences avec d'autres protocoles de test).
Le score "Landscape" est la valeur maximale de la courbe, généralement obtenue à la sensibilité la plus basse. On remarque la décroissance de la courbe qui perd environ 1 IL à chaque doublement de la valeur ISO. Cela rappelle que, même quand le bruit est bien contenu, l'augmentation de la sensibilité a d'autres effets délétères sur l'image.

Le "Tonal Range" est le nombre de niveaux de gris que le capteur peut restituer. Le résultat est donné en bits, le nombre de niveaux de gris valant 2 puissance la valeur du Tonal Range. La montée du bruit fait régresser cette plage tonale lorsqu'on augmente la sensibilité ISO.

La "Color Sensitivity" correspond au nombre maximal de nuances de couleurs que le capteur peut enregistrer. La composante chromatique du bruit fait progressivement chuter le résultat à mesure que la sensibilité augmente. Le résultat est donné en bits, le nombre total de nuances étant 2 puissance la valeur de CS. Le score "Portrait" est la valeur maximale de la courbe.

Le "Full SNR" est le tableau complet du rapport signal/bruit à toutes les sensibilités et pour toutes les valeurs de gris. Le SNR du graphique plus haut est une coupe verticale de ce tableau pour un gris 18% (en version "Screen", donc non normalisée). La pente des courbe est intéressante à considérer. Elle permet par exemple d'évaluer l'impact du choix du seuil de 0 dB pour le bruit. Ainsi, certains boîtiers qui ont un SNR très élevé, mais qui chute vite quand le gris s'assombrit, sont pénalisés par la valeur basse du seuil.

Les graphes "Color Response" ne sont pas simples à comprendre. Résumé en quelques mots, ils évaluent la capacité du capteur à restituer les trois primaires de l'espace sRGB, sachant notamment qu'un capteur à matrice de Bayer enregistre des couches RVB incomplètes. Moins une couleur primaire restituée sera pure, plus il faudra la corriger et plus cela introduira de bruit. Dans le cas de l'Alpha 7R, on voit que la sensibilité au rouge est plus faible (graphique du bas). Alors que la couche rouge (graphique en haut à gauche) devrait contenir essentiellement du rouge, un peu de vert et quasiment pas de bleu, la contribution du rouge est un peu basse et la quantité de bleu n'est pas négligeable. Rassurez-vous, ce comportement est plus que classique sur les reflex, l'Alpha 7R s'en sortant très bien.

Le graphique "Full CS" montre les ellipses formées par les covariances du bruit pour plusieurs couleurs dans l'espace de couleur CIE Lab. On peut les afficher pour toutes les sensibilités de l'appareil et pour les valeurs de luminance 30, 50 et 70 (ici 1600 ISO, L50). On peut ainsi observer la direction de l'erreur et son amplitude. Idéalement, les covariances sont nulles (de fait, elles sont très faibles à basse sensibilité), mais elles s'étendent à mesure que la sensibilité augmente.
Comparer plusieurs boîtiers
DxOMark permet de comparer les résultats de trois boîtiers. La comparaison est faite sur une base normalisée.

Après avoir sélectionné les boîtiers en cliquant sur "Select" dans les diverses pages où cela est possible, il suffit de cliquer sur le bouton "Compare up to 3 items" pour lancer la comparaison.

Voici un exemple de présentation de la comparaison des scores pour les deux boîtiers plein format concurrents de l'Alpha 7R (d'un point de vue tarifaire). On constate que les scores globaux de l'Alpha 7R et du Nikon D610 sont très proches et devancent le Canon 6D. Les scores thématiques sont également proches pour le Sony et le Nikon, le Canon perdant du terrain en profondeur de couleur et en dynamique (plus de 2 IL, ce qui n'est pas rien). En revanche, malgré la grosse différence apparente en sensibilité, celle-ci correspond à moins de 1/2 IL, ce qui n'est pas très significatif.

Chacun des graphiques présentés plus haut peut afficher les courbes des boîtiers sélectionnés. Celui de la plage dynamique est intéressant, car si le Canon 6D est clairement inférieur en valeur maximale (à la sensibilité la plus faible), c'est lui qui passe en tête au-delà de 1600 ISO. Selon votre pratique photo, l'appréciation de ce résultat pourra ainsi être différente. Cela montre qu'un score global ne peut suffire et qu'il est indispensable d'examiner les détails des mesures.
Recommandations
En conclusion de ce mode d'emploi de la partie "capteurs" de DxOMark, voici quelques recommandations :
• Le site contient beaucoup d'informations que les scores ne reflètent qu'imparfaitement. Même si c'est un peu complexe au début, cela vaut vraiment la peine de s'immerger dans le détail des mesures afin d'évaluer le boîtier par rapport à ses besoins et sa pratique photo. Si par exemple vous ne faites que du paysage ou du portrait à basse sensibilité, vous n'avez que faire de l'évaluation des dégradations de l'image liées à la montée du bruit.
• Considérez les mesures "Screen" avec précaution et, surtout, gardez-vous de comparer des boîtiers sur cette base : même si DxOMark le permet, cela n'a aucun sens.
• Évitez de comparer des boîtiers dont les tailles de capteurs sont différentes. Si vous le faites, n'oubliez pas que la taille du capteur a d'autres implications (profondeur de champ, etc.).
Commentaires
Les résultats sur la colorimétrie ne me surprennent pas, les trois filtres de la matrice de Bayer sont assez larges : le bleu de 420nm à 550nm, le vert de 460nm à 620nm et le rouge de 550nm à 700nm environ. Il est donc normal qu'une lumière verte à se retrouve sur les trois canaux RGB du capteur...
Je suppose que le choix de la largeur de ces filtres passe-bande est pour les constructeurs un compromis entre la capacité à suffisamment distinguer les trois couleurs (filtre passe bande étroit) et la nécessité de capter le maximum de lumière pour une meilleure sensibilité en ISO (filtre passe bande large).
Alain
Merci pour cet article clair, bien rédigé et utile, comme à ton habitude
Sans remettre en question les tests dxo, comment est-ce possible que le capteur du 400d ai un meilleur score que celui du 700d?!
Il faut toutefois ajouter à ce constat que Canon a fait d'énorme progrès dans le post-processing, ce qui comble en partie pour les Jpeg le déficit observé pour les Raw (ne pas oublier que DxO évalue le Raw à l'exclusion de tout traitement).
Je peux comprendre que, devant le renouvellement de plus en plus rapide du matériel photographique, il est difficile de suivre pour analyser rapidement les nouveaux appareils. Je constate ainsi, par exemple pour Fujifilm, que des appareils de 2010, 2011 et 2012 sont toujours en "preview". Ce qui peut être gênant pour quelqu'un qui veut acheter un appareil d'occasion. Pour certains appareils, l'analyse est rapide (Sony A7R), pour d'autres elle arrive de longs mois après la sortie de l'appareil.
Les qualités du capteur sont évidemment très intéressantes, mais ne suffisent pas du tout pour guider l'achat. Étanchéité, qualité de la visée, rapidité de l'autofocus, etc. sont aussi des éléments déterminants suivant les exigences de chacun.
Changeant assez souvent d'appareil, je consulte donc DXOMark, mais aussi et principalement dpreview.com où l'analyse est beaucoup plus détaillée.
Pour les autres marques, ce que tu écris est faux : les boîtiers sont désormais testés très vite, parfois avant même qu'ils soient disponibles dans le commerce. Il suffit de regarder : il n'en manque quasiment aucun.
Pour le reste, je suis bien d'accord avec toi : le potentiel du capteur n'est pas le seul critère de choix pour un boîtier. DxOMark est donc une référence nécessaire, mais pas suffisante et dpreview est en effet une excellente source complémentaire.
Je constate que sont toujours en "preview"
- Olympus Stylus XZ-10,sorti le 30 janvier 2013,
- Olympus PEN E-PL6, sorti le 10 mai 2013,
- Samsung NX2000, sorti le 1 mai 2013,
- Samsung GALAXY NX, sorti le 20 juin 2013,
etc.
Je n'en fais pas une maladie, loin de là, mais je n'apprécie pas qu'on écrive "ce que tu écris est faux".
De plus, à mes yeux, dpreview est la source principale (souvent aussi en retard)vu l'étendue complète de ses tests, et DXO une source complémentaire.
Pour ce qui est de dpreview, c'est une source majeure à laquelle je m'abreuve également. En revanche, j'ai passé trop d'heures ici et ailleurs à expliquer pourquoi leur protocole est foireux (pixel peeping) pour le considérer comme une source principale. Pour moi, il y a DxOMark et les autres pour ce qui est des tests de capteurs.
Je suppose que pour évaluer un capteur, il faut lui mettre un objectif devant !
Par quel artifice dxo peut il comparer des boitiers de marques différentes, si l'objectif utilisé n'est le même ?
Bonjour Patrick,
je ne suis pas sûr que cela existe ! En fait, aucun des miens ne possède le même rendu, même si certains paraissent proches. De là à dire qu'il y en a un de neutre dans le tas, je ne m'y risquerai pas.
Si tu peux, essaie de faire un test complémentaire avec une colorchecker et un éclairage en lumière continue. Fais plusieurs clichés avec le même objo pour vérifier que le protocole est bien reproductible. Et ne fais pas confiance à tes yeux : si tu n'as pas de logiciel d'analyse, fais une moyenne de la partie intérieure (environ 50% de la surface) de chaque carré coloré de la colorchecker et mesure le résultat à la pipette.
Maintenant, si ça ne perturbe pas les mesures de DxO, c'est tant mieux. Mon but est d'obtenir la meilleure justesse de restitution et non la mesure d'écarts relatifs
Je comprends mieux ce que tu dis, car en effet les optiques des temps argentiques avaient parfois une "couleur". Si tu regardes les vieilles fiches optiques de Chasseur d'Images (j'ai tout gardé), tu vois parfois une indication comme "légèrement chaud". Ces temps semblent révolus, car aucune optique récente que j'ai testée ne montre de dominante. Cela étant, je n'ai testé que des optiques en monture Alpha. C'est peut-être différent chez Canon et Nikon...
Merci pour ces explications.
Après, mise en application,j'ai donc voulu comparer quelques capteurs aps-c de boitier sony entre eux.
Alpha 77,65,nex 7 et alpha 3000.(voir alpha 55)
Les deux derniers ont de meilleurs moyennes, il n y a pas le miroir semi-transparent.
Mais je suis surpris que l'alpha 77 est un poil au dessus du 65 alors que la technologie est la même(même capteur et même électronique )
Traitement de faveur ?
J'avoue ne pas comprendre ce qui peut l'expliquer.
Donc les intérets principaux du miroir semi transparent concernent:
moins de vibration qu'un reflex classique
un autofocus plus rapide et continu en photo et vidéo
au prix d'une baisse sensible de la sensibilité et des scores du capteur?
Et passage à la visée électronique en conséquence avec toutes les discussions qui vont avec.
Cette technologie va t' elle être abandonné pour des capteurs avec l'autofocus en phase intégré au capteur afin d'exploiter le capteur à son potentiel maximum ?
Sinon en effet, le miroir semi-transparent consomme près de 1/2 IL de lumière, ce qui fait tomber les scores d'autant. Il est probable que le miroir finisse par disparaître complètement, mais il manque encore une génération pour que l'AF phase sur capteur s'approche de l'AF phase classique de reflex. La qualité d'image s'en trouvera logiquement améliorée et rejoindra celle des boîtiers en monture E.
Et merci Patrick pour cette présentation de qualité.
Elle m'amène à formuler une question que je me pose depuis un certain temps : les analyses de DxO sont faites sur les raw afin d'être les plus pertinentes possibles ; mais cela assure-t-il une totale impartialité, sachant que le format raw n'exclut pas un préprocessing?
Je m'explique : il y a quelques années de cela, il était de notoriété publique dans le milieu des astrophotographes, que les boitiers Nikon procédaient à une première réduction du bruit avant de produire leur fichiers raw. Cela était problématique pour cette pratique photographique, car qu'y a-t-il de plus semblable qu'un pixel chaud que l'on veut "éliminer" et qu'une étoile ponctuelle que l'on veut conserver? C'est pourquoi les astrophotographes se tournaient davantage vers Canon.
Ce préprocessing existe-t-il donc toujours chez Nikon? Chez d'autres marques également? Auquel cas les dés seraient un peu pipés.
Et serait-on dès lors en droit de se dire qu'un boitier Canon (pour l'exemple) étant moins bon au départ, le traitement de ses raw présente en revanche une plus grande marge d'amélioration?
Bonne photos à tous.
Cette histoire de débruitage amont est devenue une légende urbaine que les Canonistes se racontent entre eux pour se rassurer. Si cette légende était une réalité, ça n'expliquerait de toute façon en rien la stagnation depuis des années alors que toutes les autres marques ne cessent de progresser...
merci
Si ça peut convaincre les lecteurs de s'informer sur DxOMark plutôt que sur la pléthore de sites qui publient des tests douteux ou aux protocoles franchement erronés, cela aura valu la peine d'écrire cet article...
Perso, c'est surtout sur l'aspect colorimétrie à haut ISO que mon A99 me frustre parfois.
J'avais pas noté que la plage dynamique était quasiment toujours plus importante aux isos les plus bas proposés par l'appareil
Cette info semble contradictoire avec ce que l'on peut lire ça et là concernant les isos natifs des appareils (plutôt aux alentours de 200 isos)
C'est logique que la plage dynamique soit la plus importante aux ISO les plus bas. Quand on monte en sensibilité, le signal est amplifié et ne peut que se dégrader à cause du bruit.
un positionnement à 100 iso, aurait conduit à une saturation en photons de certains photosites(sur les forts éclairages).
(merci Patrick de virer mon message si je raconte une grosse ... betise
Bon, j'ai pas forcément prévu d'acheter un Sony (je vise plutôt l'OMD-EM10 à venir, le A6000 sortant trop tard pour moi : je veux mon nouvel appareil fin mars au plus tard pour cause de voyage) mais je mets votre site dans mes bookmarks, j'ai appris plein de choses cet après-midi !
NB. Je mets de coté la pdf, bien sûr (sachant qu'en FF, c'est pas toujours un avantage, ça dépend de ce qu'on veut faire).
Y a t-il d'autres raisons (du point d'un photographe amateur) qui justifient malgré tout l'usage d'un capteur plus grand tel que le FF ?
Autre avantage du plein format, la plus grande facilité d'avoir de très courtes focales. Tout ceci fait que le plein format est privilégié par les photographes de paysage qui bénéficient de l'ensemble des avantages, et des photographes de spectacle comme moi qui bénéficient de l'excellente maîtrise du bruit (je shoote au théâtre avec plusieurs boîtiers, chacun équipé d'une focale fixe très lumineuse). Les seuls photographes qui sont (partiellement) perdants, ce sont les animaliers qui perdent en focale équivalente.
Du coup, la démarche DXO appliquée aux jpeg permettrait d'évaluer, pour ces utilisateurs, la qualité des jpeg out of the box. Ce n'ets plus le capteur qu'on teste mais le capteur + le post-traitement appliqué dans l'appareil.
Indépendamment de la faisabilité (peut-être trop de combinatoire du fait qu'on peut toujours paramétrer un peu ce post-traitement dans l'appareil), est-ce que la démarche DXO aurait un sens appliquée aux jpeg ?
Je voudrais toutefois revenir sur votre commentaire du 20 Janvier:
Citation en provenance du commentaire précédent de Patrick Moll :
Je vous invite à consulter l'article suivant sur le site de Christian Buil: http://www.astrosurf.com/buil/nikon_test/test.htm
On peut légitimement se demander si ce problème existe encore aujourd'hui, mais il est inexact de parler de légende urbaine. Et ça n'a rien à voir avec un débruitage musclé. Nikon utilisait (et utilise peut-être encore) un algorithme gommant les pixels paraissant aberrants, par exemple des photosites chauds. Or, il est difficile de faire la différence entre un photosite chaud et une étoile faible. Il faut bien comprendre que cet algorithme ne saurait gommer les détails d'une image normale car ile s'agit pas d'un lissage mais de l'élimination de photosites isolés et jugés anormaux. Et je ne pense pas que DxO puisse le détecter...
S’abonner au flux RSS pour les commentaires de cet article.