Jui 24 2012

Comprendre le format Raw - Première partie

FormatRAWetFluxdeProd_1.jpg
[NdLR : je vous propose une introduction au format Raw extraite (et légèrement adaptée pour le web) du début du deuxième chapitre de mon livre Le format Raw : développement et flux de production, paru aux Éditions Dunod. Cette introduction est découpée en trois parties et dotée de liens de circulation des unes vers les autres. Voici la première partie, intitulée dans le livre De la lumière à l'image.]

Pour comprendre le fonctionnement et percevoir tout l’intérêt du format Raw, il est important de connaître les principes fondamentaux de la capture et de la transformation du signal lumineux. Il ne s’agira toutefois pas d’entrer dans des détails sur la constitution et le fonctionnement interne d’un capteur imageur, sans intérêt dans le cadre de cet ouvrage.
Nous allons examiner le processus qui transforme la lumière parvenant sur le capteur en fichier Raw. Sa transformation en image bitmap par le processeur de l’appareil ne sera qu’évoquée, car c’est précisément de cette phase ultime que le flux de production en Raw veut prendre le contrôle.


Capture du signal lumineux

La lumière, focalisée par l’objectif vers le capteur imageur, est réceptionnée par une matrice formée de millions de cellules photosensibles (les photosites) correspondant à autant de pixels. Pendant la durée d’ouverture de l’obturateur (temps de pose) chaque photosite reçoit les photons et les transforme en charge électrique. La charge accumulée sera donc proportionnelle au nombre de photons reçus, d’où la notion de capture linéaire que nous évoquons plus loin. Cette charge électrique est envoyée séquentiellement vers un convertisseur qui la numérise.
Un photosite peut s’assimiler à un puits au fond duquel se trouve la photodiode qui va réceptionner les photons. La surface utile de ce puits ne représente qu’une partie de celle du pixel. Pour accroître l’efficacité de la capture, les constructeurs ont recouvert le capteur d’un réseau de microlentilles, une par pixel, afin de faire converger une plus grande proportion de la lumière vers les puits des photosites.

microlentille.jpg






Vue schématique d’un photosite de capteur. La microlentille fait converger le maximum de rayons lumineux vers le fond du puits où se trouve la photodiode chargée de réceptionner les photons. Cette technologie accroît la qualité de la capture et augmente le rapport signal/bruit.

Plus un pixel sera large, moins il sera compliqué de diriger une grande proportion des rayons lumineux vers le puits. Pour cette raison notamment, les capteurs ayant une grande taille de pixels présentent moins de bruit électronique.
La profondeur de codage du signal numérisé dépend des boîtiers. Sur les reflex, elle est le plus souvent de 12 ou 14 bits, ce qui correspond respectivement à 4 096 et 16 384 niveaux de luminosité. La profondeur tonale qui en résulte est l’un des avantages du format Raw sur le Jpeg qui est codé en 8 bits par couche, disposant donc de seulement 256 niveaux de luminosité. En revanche, le gain entre 12 et 14 bits n’est pas significatif, car le supplément de finesse d’échantillonnage des tonalités ainsi procuré est pour l’essentiel noyé dans le bruit.
Au cours de cette conversion analogique/numérique, le signal subit une double réduction du bruit électronique, sur le signal analogique d’abord, puis après sa numérisation. Ce bruit survient lors du transfert de la charge électrique, mais une partie est d’origine thermique (échauffement du capteur notamment). Cette opération de réduction dès la phase de capture est hors du contrôle de l’utilisateur, mais essentielle pour produire l’image la moins bruitée possible et réduire le besoin d’un traitement en aval.
À noter que la réduction du bruit sur le signal numérisé n’est pas du goût de tous les utilisateurs, notamment des astrophotographes pour lesquels cela peut représenter une catastrophe. La valeur d’un pixel jugée erronée par l’appareil peut en effet correspondre à une étoile dont le diamètre apparent est faible. Sa très petite taille sur le capteur pourra alors la faire passer pour un grain de bruit électronique...
Ici s’arrête la phase de capture et débute le travail du processeur de l’appareil, le DSP (Digital Signal Processor). Celui-ci produit, en fonction du paramétrage de l’utilisateur, deux types de fichiers :
  • un Raw, enregistrement formaté du signal numérisé augmenté de nombreuses métadonnées décrivant les conditions de la prise de vue ;
  • un Jpeg, image de type bitmap résultant de la conversion du Raw (le Tiff est en voie d’abandon complet par les constructeurs).
C’est bien entendu le Raw qui nous intéresse ici, car il préserve le maximum d’informations issues de la capture brute du signal lumineux, quand le Jpeg n’en est qu’une interprétation, codée en seulement 8 bits par couche et compressée avec perte. Entrons à présent plus en détail sur quelques caractéristiques essentielles de cette phase de capture du signal lumineux.


Sensibilité et amplification du signal

Le capteur a une sensibilité fixe (à l’instar du film argentique). Cette sensibilité, dite nominale, n’est pas communiquée par les constructeurs, mais elle peut s’évaluer en analysant les fichiers Raw. Celle des reflex se situe entre 100 et 200 ISO selon les marques et les modèles. On peut trouver une évaluation des sensibilités réelles des boîtiers sur le site dxomark.com.
Le capteur ne devient pas miraculeusement plus sensible lorsque la valeur ISO est augmentée par le photographe. Pour pouvoir accroître le signal (proportionnel à la lumière reçue) sans augmentation du temps de pose (donc de la quantité réelle de lumière), l’appareil procède à une amplification analogique. Il s’agit donc d’un artifice électronique, ce qui explique l’augmentation corrélative du bruit.
Une analogie avec le signal audio permet de mieux comprendre les problèmes engendrés par cette amplification :
  • Quand le niveau du son enregistré est fort, il n’est pas besoin de l’amplifier pour le percevoir normalement lors de sa diffusion. Le son est alors propre, sans bruit parasite. C’est ce qui se passe en photo quand on utilise son appareil à la sensibilité nominale du capteur, avec une bonne exposition: la quantité de lumière reçue est optimale et permet la production d’une image de haute qualité.
  • Quand le son a été enregistré à un niveau faible, il faut l’amplifier pour qu’il devienne audible. Le problème est que tout enregistrement audio présente un bruit de fond. Son niveau pouvant, en première approximation, être considéré comme constant, il est donc en valeur relative d’autant plus important que le signal enregistré est faible. Lors de l’amplification, ce bruit de fond est amplifié en même temps que le signal audio lui-même, ce qui aboutit à la perception de bruits parasites et d’un « souffle », avec une qualité de signal dégradée. C’est la même chose en photo: si la quantité de lumière qui arrive sur le capteur est faible, il faut l’amplifier. Le bruit l’est alors également, et atteint un niveau d’autant plus élevé que le signal est faible.
La montée du bruit, qui réduit le rapport signal/bruit, a un autre effet négatif : la réduction de la dynamique, de façon quasi proportionnelle à la valeur ISO.

dxomark_graph.jpg

Sur ce graphe produit par DxO Labs (dxomark.com) et mettant en piste trois compacts hybrides de même gamme, on constate les formes (différentes selon les marques) que prend la décroissance de la dynamique au fil de la montée en ISO. Au-delà de 800 ISO, la perte de dynamique se situe dans tous les cas autour de 1 IL (ou EV pour Exposure Value) par palier ISO. Le NEX-5N, qui dispose d'une excellente dynamique de près de 13 IL à 100 ISO, se retrouve ainsi avec "seulement" 6,5 IL à 25600 ISO...

La dynamique du système étant définie comme l’écart entre la plus forte et la plus faible luminosité qui peuvent être enregistrées, sa diminution a ainsi des conséquences importantes sur la capacité de l’appareil à restituer correctement des scènes très contrastées. Même lorsque le bruit est bien maîtrisé, en amont ou en aval de la capture, l’image prise à hauts ISO n’est donc pas exempte de défauts. La restitution des détails fins est altérée, la dynamique est réduite et la saturation des couleurs affaiblie, malgré les énormes progrès des processeurs et des logiciels de développement ces dernières années.


Comment le capteur distingue les couleurs

Nous avons vu que le capteur était en quelque sorte un compteur de photons. Il est sensible à l’intensité de la lumière, mais il n’a pas la capacité d’en mesurer la longueur d’onde. Il ne peut donc en déterminer la couleur. Deux technologies ont été développées pour pallier ce daltonisme achromatique. La première fait appel à un système de filtrage, imaginé par Bayer, un ingénieur de Kodak. Elle équipe une grande majorité des capteurs actuels. La seconde, plus récente et particulièrement ingénieuse, est à mettre au crédit de la société Foveon, mais elle concerne à ce jour très peu de boîtiers.
Le principe de la matrice de Bayer est de recouvrir chaque photosite du capteur par un filtre coloré qui ne laisse passer qu’une seule composante (rouge, verte ou bleue) des trois couleurs primaires à synthèse additive. Ainsi, l’intensité lumineuse mesurée par un photosite ne correspond qu’à l’une des couleurs RVB, celle du filtre qui le recouvre.

mosaic.jpg



Chaque photosite est recouvert d’un filtre coloré et ne reçoit l’information d’intensité lumineuse que d’une seule composante RVB. Sur ce graphique, le processus est schématisé, car dans la réalité le filtre de Bayer et le réseau de microlentilles sont des éléments séparés.

La capture est donc parcellaire puisque seulement une partie de l’information est enregistrée pour chaque pixel. Le damier que forme le filtre de Bayer est une répétition du motif comprenant deux filtres verts, un rouge et un bleu. La composante verte de la lumière est donc mesurée pour un pixel sur deux, mais un seul pixel sur quatre pour les composantes rouge et bleue.

capteur.jpg




Les capteurs ayant adopté la solution de filtrage de Bayer sont recouverts d’un filtre en damier composé de 50 % de vert, 25 % de rouge et 25 % de bleu.

Ce déséquilibre en faveur du vert n’est évidemment pas le fruit du hasard. Il tient compte de la plus grande sensibilité de la vision humaine au vert et au jaune.

spectre_cones.jpg


Ce graphique correspond à la réponse spectrale normalisée des trois types de cônes récepteurs de la vision humaine. Les cônes de type S sont sensibles aux courtes longueurs d’onde, les M aux longueurs d’onde moyennes et les L aux grandes longueurs d’onde. On constate que le vert et le jaune sont privilégiés.

Ce sont donc trois couches RVB incomplètes qu’enregistre le capteur. Le processeur de l’appareil, ou le logiciel de développement dans le cas d’un enregistrement en Raw, devra donc reconstituer les informations manquantes de chaque couche pour produire l’image finale. Cette opération s’appelle dématriçage; nous l'évoquerons dans la partie suivante.


Commentaires   

# Patrick Moll 24-06-2012 20:23
Je réponds tout de suite aux taquineries et autres accusations de flemme pour avoir puisé un article dans mon bouquin au lieu d'en écrire un original pour alpha-numérique... :wink:
Il s'avère que je suis en fin d'écriture d'un dossier pour Compétence Photo, que je prépare un déménagement pour mi-juillet et que... je pointe au boulot chaque matin. Les articles vont se raréfier au cours des semaines qui viennent faute de disponibilité, et c'est le moyen que j'ai trouvé (avec l'accord de mon éditeur) pour en assurer trois de plus sans que cela ne me demande trop de temps. Je ne doute pas de votre compréhension... :-)
# Fred 24-06-2012 20:51
Pardonné d'avance, notre compréhension est sans limite!!! Merci pour le partage, et à votre éditeur!
# Patrick Moll 25-06-2012 00:10
Me voilà rassuré, Fred... :wink:
# Quelques souvenirsDylan 24-06-2012 22:39
Pour ma part, cela me rappelle quelques petites choses que j'avais croisé sur le HS de compétence photo (qui datait de septembre 2011 me semble?)dédié au format RAW.
Devenu un de mes bouquins de chevet entre guillemets, j'y ai apprit beaucoup en terme d'informations, et il m'arrive très souvent d'y plonger le nez pour me remettre deux trois choses en tête.
J'en profite donc pour remercier Patrick pour ce bouquin qui m'a personnellement bien aidé dans ma pratique photo et dans son évolution
# Patrick Moll 25-06-2012 00:09
Merci Dylan. Le hors série de Compétence Photo s'est concentré sur le développement des Raw, tandis que le livre traite de l'ensemble du flux de production, du visage de la carte à la diffusion des images finalisées. Ils sont donc assez complémentaires, même si les deux comportent une introduction sur le format Raw (avec des graphes communs).
# petite erreurAlexandre 24-06-2012 22:53
dans le paragraphe "La composante verte de la lumière est donc mesurée pour un pixel sur deux, mais un seul pixel sur quatre pour les composantes rouge et verte.", il faut plutôt lire "bleue" à la fin, non ?
# Patrick Moll 25-06-2012 00:09
Merci Alexandre, j'ai corrigé... :wink:
# Cocagne 25-06-2012 00:29
Ton bouquin a fait partie de mes premières lectures dignes de ce nom concernant la photo numérique
# Patrick Moll 25-06-2012 00:41
Merci Cocagne :-)
J'ai essayé de rester aussi accessible que possible dans ce livre. J'espère qu'il y aura une seconde édition et que je pourrai la gonfler sévèrement. Reste à convaincre mon éditeur... :wink:
# lawre51 25-06-2012 01:26
Bravo Patrick,

Je vais l'acheter ce bouquin. Cela me fera une bonne révision. Je n'ai jamais été déçu par tes articles notamment le hors série de compétence photo mais également le dernier sujet sur la gestion de la couleur dans les deux derniers numéros....Une vraie réussite. Merci!

Cyril
# Patrick Moll 25-06-2012 04:05
Merci Cyril... :-)
Un livre, c'est différent d'un magazine sur le fond comme sur la forme. Moins purement pratique, il essaie surtout de poser les bases d'un flux de production complet. Je dirais que les articles de Compétence Photo sont des zooms ou des applications pratiques de la description d'ensemble donnée par le livre. Je ne saurais dire par quoi il faut commencer, car cela dépend de chacun. Certains aiment bien entrer très vite dans les détails, tandis que d'autres préfèrent passer au particulier après avoir compris le général.
# Une référenceGiorgio PAPARELLE 25-06-2012 01:38
Les articles de Patrick sont toujours excellents; le hors série de Compétence Photo est à lire sans hésiter, en guise d'introduction au livre.
Pour ceux qui hésitent encore sur l'utilité ou pas de shooter en raw, suivez les conseil de Patrick, vous changerez d'avis sans même pas vous en rendre compte.
Ps: Patrick, merde aux taquineries...
# Patrick Moll 25-06-2012 04:07
Bah... c'est bien de taquiner de temps en temps, quand cela est fait entre gens de bonne compagnie... :wink:
Quant à savoir quel ouvrage est une introduction à l'autre, j'ai fait une non-réponse dans mon précédent commentaire... :-)
# Non maisGiorgio PAPARELLE 25-06-2012 10:37
Je lui fais de la pub, et il m'engueule... :-)
# Patrick Moll 25-06-2012 23:52
Mais non, je ne t'engueule pas, Giorgio... au contraire, je te traite de gens de bonne compagnie... :wink:
# ahalapalleas 28-06-2012 18:20
Bonjour Patrick,

C'est un peu mortifié que je fais ce commentaire à la suite de ce très bon 'article'.
En effet, tu m'avais lancé "le défi" d'écrire un article similaire à celui là fin 2011, et je me suis complètement laissé submergé par le boulot (et ma ptite fille) et je n'ai pas trouvé le temps de le faire, en 6 mois... Je suis déçu par moi-même sur ce coup là. Je n'avais pas abandonner l'idée, loin s'en faut. Il ne me reste plus qu'à essayer de trouver d'autres sujets où je pourrai contribuer ;-) Quitte à mettre des deadlines, cette fois-ci, histoire que j'arrête de me laisser aller :P

Bon, au final, je ne savais pas que tu avais écrit un livre sur ça, ce qui est quand même très intéressant, et l'article est certainement meilleur que ce que j'aurai pu faire.
Cette première partie me semble en tout cas très bonne! Elle explique bien ce qu'est le raw, sans s'enfoncer dans les détails, donc pour la compréhension de la plupart, je pense que c'est bien réussi.

Le fait d'être mortifié par mon inaction ne calme malheureusement pas mon esprit "critique" ;-)

Je dirai qu'au niveau de la lecture, on passe un peu des fois brutalement d'un sujet à un autre, mais rien de bien grave.

Il me vient quelques remarques/questions/précisions :

- Sur les micro-lentilles : En fait, il me semble que la photo diode au fond d'un puit est surtout l'apanage du CMOS. Les CCD n'avaient pas ce défauts et n'utilisaient donc pas de micro-lentilles, vu que la zone sensible, dans certain cas, était pleine (Fill Factor de 100%). En général d'ailleurs, les puits sont beaucoup plus profonds que sur l'illustration, mais c'est entrain de changer avec les capteurs retro-éclairés.
Une mini précision également : les micro-lentilles peuvent grandement améliorer le Rapport S/B, mais ont un effet légèrement destructeur sur le piqué de l'image et sur la MTF du capteur, mais je pense que ce sont des considérations trop poussées ;-)
Et puis pour le "en quelque sorte des compteurs de photons", j'aurai même enlevé le "en quelque sorte ;-)


- Sur la petite ellipse sur l'astro : le diamète apparent de TOUTES les étoiles est faible, puisque vu d'ici, il est toujours considéré comme nul. Pour commencer à résoudre le diamètre d'une étoile proche (Sirius, par exemple), il faudrait un télescope de diamètre > 50m, bien sûr dans l'espace (sinon, les perturbations atmosphériques gâchent tout). Si une photo d'une étoile est plus grosse qu'un pixel, c'est juste qu'on image la PSF de l'objectif, pas l'étoile elle même. Donc oui, si la correction de bruit enlève les images ponctuelles, c'est un énorme problème :P En général, les astrophotographes font du traitement eux-mêmes, à l'aide d'image de noir, de blanc, etc.

- Sur le bruit et les isos, il me vient une question à la suite de la lecture de tes explications : si le passage d'un iso à l'autre n'est que purement une amplification du résultat en sortie de capteur, est-ce que ça reviendrait au même de prendre la photo à bas iso et d'amplifier en post-traitement?

- Enfin, les pixels verts du bayer : maintenant ils sont parfois légèrement différents. De ce qu'on m'avait expliqué, le choix a effectivement été fait pour se rapprocher de la sensibilité de l'oeil, mais ça a plein d'autres intérêts, en particulier pour le DSP et le dématriçage. Avec des capteurs à quatre couleurs différentes, on aurait une carte de luminosité moins précise et des calculs d'interpolation des couleurs nettement moins bon (mais c'est assez technique, c'est dû aux replis spectraux des fréquences spatiales qui sont différents en vert grâce au doublement du nombre de pixels)

Ces remarques étaient plutôt pour toi, vu que je pense qu'elles sont trop techniques pour être dans un article 'grand public', et je doute de leurs utilités, vu que tu devais probablement déjà savoir tout ça.

Il me reste deux points avant de conclure mon roman de commentaire :

1 - vivement la suite :-)

2 - Je voulais te remercier pour l'excellent dossier sur la calibration des écrans dans compétence photos. Je ne suis pas abonné (je ne pense pas que j'aurai le temps de tous les lire), et du coup j'ai un peu eu la mauvaise surprise, au début du dossier, d'apprendre que c'était la deuxième partie, et impossible de trouver le numéro précédent en kiosque (évidemment). J'imagine qu'on peut commander les anciens numéros? Il y a quoi dans la première partie du dossier?
Va pê falloir que je m'abonne un jour pour éviter ce genre de mésaventures...
# Et bien si, ça intéresse...Frédy 30-06-2012 15:58
Bonjour

@Palleas, contrairement à ce que tu penses, ce genre de renseignements doit intéresser pas mal des lecteurs de ce cite. N'oublie pas que c'est avant tout un site de partage de connaissances, surtout celles de Patrick, mais tous les apports sont les bienvenus.
Par contre les abréviations ésotériques telles que MTF,PSF ou DSP mériteraient au moins d'être accompagnées des noms complets, ça rafraichirait la mémoire ou faciliterait les recherches.

Merci pour cet apport.
# palleas 02-07-2012 19:07
Bonjour Frédy,

Je suis désolé si mes remarques ont pu être mal comprises. Je ne considère pas du tout les lecteurs de ce site comme inintéressés par ça, mais lors de commentaires précédents, je m'étais fait dire que j'avais trop vite été dans le technique, alors je prend des précautions maintenant :-)
C'est aussi pour cela que je n'ai pas donné les noms des abbréviations ^^

Je ferai mes remarques sans pincettes à l'avenir ^^

Pour te répondre sur les abréviations (et peut-être en guise de d'excuse?) :
- MTF veut dire "Modulation Transfer Function", ou FTM ("Fonction de Transfert de Modulation") en français. C'est ce qui évalue la capacité d'une optique ou d'un système d'imagerie à reproduire une fréquence spatiale. ça peut paraitre un peu barbare et compliqué comme ça, mais c'est en fait remarquablement simple (et physique) à expliquer/comprendre avec des bons schémas ^^. C'est en fait la mesure la plus pertinente de la qualité d'image et elle commence (enfin) à être utilisée par des testeurs et des logiciels.

- La PSF (Point Spread Function) est la "réponse percussionnelle" d'une optique : en fait l'image qu'elle fait d'un point source (comme par exemple une étoile). Cette PSF est caractéristique des défauts de l'optique, varie dans le champ et de l'ouverture, etc. Mais elle a une limite physique dûe à la diffraction (cette forme limite est la tache d'Airy), qui fait que même une optique parfaite ne peut avoir un piqué infiniment fin. Cette limite est dépendante directement de la longueur d'onde et de l'ouverture de l'optique.

-DSP il me semble que Patrick l'avait utilisé dans son article : ça peut être soit "Digital Signal Processing" (traitement de signal) ou "Digital Signal Processor" (la puce qui fait le traitement).

Encore pardon pour les remarques de mon premier commentaire et merci, donc, de m'avoir répondu.

J'espère que les clarifications aident un peu, n'hésite pas à me répondre s'il y a d'autres questions :-)

Du coup, Patrick, on a presque un sujet tout trouvé : évaluer la qualité d'image?
# Patrick Moll 03-07-2012 13:41
C'est un sujet très vaste et très technique, mais en effet, c'est une bonne idée. Imatest propose plusieurs centaines de pages sur le sujet, mais c'est gravement indigeste pour le non spécialiste. Tu te sens de mettre ça à al portée de tous ? :wink:
# Patrick Moll 01-07-2012 17:02
Merci beaucoup pour toutes ces précisions et remarques venant d'un spécialiste de ces sujets. Mais elles ne remplacent pas un article, donc tu seras fouetté... :wink:

La première partie du dossier de Compétence Photo contient une vaste introduction sur la gestion des couleurs, ainsi que deux sujets : le premier sur la catastrophe de la gestion des couleurs par les navigateurs Web, le second sur le calibrage des appareils photo. Tu n'as donc rien loupé sur les écrans, mais si cela t'intéresse, tu peux le commander sur le site du mag, ou encore plus simplement sur Amazon (www.amazon.fr/Comp%C3%A9tence-Photo-n%C2%B0-27-couleurs/dp/2355640866/ref=sr_1_12?s=books&ie=UTF8&qid=1341147680&sr=1-12) ou tous les numéros de CP sont disponibles une fois terminée leur vie en kiosque.

Les commentaires ont été désactivés

Flux de production

17 mars 2014
x-rite-colortrue-la-gestion-des-couleurs-pour-les-appareils-mobilesNi Apple avec iOS, ni Google avec Android n'ont intégré dans leur système d'exploitation mobile la gestion des couleurs. Pour la plupart des usages, les [...]
28 décembre 2012
colorimetrie-comparee-des-logiciels-de-developpement-des-rawCet article, rangé dans la catégorie Gestion des couleurs, aurait pu figurer dans la rubrique Idées fausses tant le sujet abordé fait l'objet [...]
06 août 2012
comprendre-le-format-raw-troisieme-partie [NdLR : je vous propose une introduction au format Raw extraite (et légèrement adaptée pour le web) du début du deuxième chapitre de mon livre Le [...]
02 juillet 2012
comprendre-le-format-raw-deuxieme-partie[NdLR : je vous propose une introduction au format Raw extraite (et légèrement adaptée pour le web) du début du deuxième chapitre de mon livre Le format [...]
06 avril 2012
protocole-de-test-pour-evaluer-la-colorimetrie-dun-boitierCet article présente le protocole de test qui servira à tester la colorimétrie des boîtiers Sony Alpha et NEX. Il ne présente donc pas d'intérêt majeur en [...]
25 février 2012
notions-despace-de-representation-et-de-profil-de-couleurAprès l'introduction aux problématiques de la gestion des couleurs, je vous propose d'aborder les notions d'espace, de représentation et de profil de [...]
19 février 2012
introduction-aux-problematiques-de-la-gestion-des-couleursHier, je relisais la review du NEX-7 par dpreview, qui est ce qui se fait de mieux et de plus complet actuellement (malgré certaines faiblesses de leur [...]

Communications

16 février 2015
migration-d-alpha-numeriqueLors des voeux de bonne année, j'ai évoqué la refonte de la maquette d'Alpha-numérique rendue impérative par l'arrêt de la maintenance du CMS (moteur de [...]
01 janvier 2015
alpha-numerique-vous-souhaite-une-excellente-annee-2015Alpha-numérique devait redémarrer avec la nouvelle année. Hélas, la refonte impérative de la maquette (qui doit être adaptée à la version la plus récente [...]
29 avril 2014
fermeture-d-alpha-numerique-pour-une-duree-indetermineeTrop de travail, trop peu de disponibilités, lassitude après tant d'années et plus de 1000 articles, départ en voyage, tout ceci me conduit à fermer le [...]
12 avril 2014
test-d-une-protection-anti-spam-sans-captcha-sur-alpha-numeriqueLe SPAM, c'est la vérole du Web. C'est lui qui m'oblige à imposer le remplissage d'un Captcha pour les commentaires des lecteurs non enregistrés, et je [...]
05 avril 2014
reprise-de-l-activite-sur-alpha-numeriqueAprès quasiment trois semaines sans article faute de disponibilité (en particulier du fait de l'écriture d'un très gros dossier à paraître dans le [...]
01 janvier 2014
alpha-numerique-vous-souhaite-une-excellente-annee-2014L'année 2013 aura été riche pour les sonystes. La marque orange a encore fait feu de tout bois avec beaucoup d'innovations, au premier rang desquelles [...]
21 décembre 2013
nouveau-module-expresso-news-sur-alpha-numeriqueLes articles publiés sur Alpha-numérique apparaissent dans la zone principale en format blog, ou dans un module latéral s'ils sont moins importants. Faute [...]