Skinexigence

Photographie numérique

Le constat s’impose de lui-même : la photographie numérique est un outil de plus en plus souvent utilisé en dermatologie et en cosmétologie. Initialement cantonnée à un rôle purement illustratif, cette technique peu couteuse a été employée progressivement dans un contexte plus objectif, notamment dans un but de caractérisation et de quantification. Associée à l’outil informatique et à l’analyse d’image, comparée à des mesures de référence, complétée par des scores cliniques, cette méthode permet toute sorte d’applications, dans des contextes extrèmement variés (étude de l’acné, quantification des rides, du psoriasis, des tâches pigmentaires, suivi de la cicatrisation…).

Cependant, encore aujourd’hui, la photographie numérique reste affaire de spécialistes. L’analyse d’image est une discipline complexe, mal documentée et donc peu reproductible. Le tout numérique entraîne souvent à raison méfiance et réticence parce que la liberté et la convivialité qui lui sont associées permettent toutes les dérives et tous les excès. En raison des techniques de compression et de la retouche photographique, il est en effet pratiquement impossible de connaître la provenance exacte d’une image ou de garantir son originalité.
La sensiblité à la lumière et la résolution optique de l’oeil humain restent encore bien au-delà des capacités de l’électronique actuelle. Mais pour combien de temps encore ?
Lorsqu’on souhaite dépasser le rôle illustratif d’une image, on cherche à en extraire des paramètres quantifiables, permettant de caractériser un objet. Cette quantification suppose deux choses : que l’on ait un signal clairement ou en tout cas partiellement identifiable et identifié dans l’image (un rapport signal sur bruit suffisant), et que l’on puisse définir une procédure d’analyse d’image, c’est à dire un algorithme pour extraire et surtout résumer cette information. La première supposition est loin d’être évidente, la tendance allant souvent dans le sens de vouloir quantifier un objet diffus, informel et subjectif autour duquel les investigateurs ont du mal à se mettre d’accord. L’analyse d’image ne peut quantifier que ce qui est visible par l’œil de l’expérimentateur, que ce qui provoque l’adhésion. Elle ne peut en aucun cas apporter de solution à un problème mal posé ou mal défini. C’est cette évidence qui va permettre de construire un algorithme efficace, permettant de calculer des paramètres intuitifs et rationnels. On pourra alors vérifier l’analyse en la confrontant à l’expertise médicale. Un soin tout particulier devra être accordé au choix des paramètres, afin que définis et documentés, ils puissent être critiqués et améliorés.
La photographie en lumière polarisé croisée permet de diminuer les reflets de l’éclairage en accentuant la saturation des couleurs. Son application dans l’étude de l’acné est  ici particulièrement intéressante.
En photographie numérique la quantification pose trois problèmes incontournables: la calibration, la standardisation et le repositionnement.
Calibrer une image, c’est lui donner une échelle, une correspondance physique entre les pixels qui la constituent et une unité physique quelconque. Cette calibration est donc une étape préliminaire essentielle avant toute analyse. On calibre habituellement à l’aide d’une mire ou d’une échelle graduée placée au même niveau que l’objet photographié. Cette procédure manque fondamentalement de précision (l’objet et l’appareil doivent être fixe, la profondeur de champ rigoureusement identique), notamment au regard de la résolution théorique permise par les appareils récents (capteur CCD de 6.1 à plus de 10 millions de pixels, soit une taille d’image pouvant aller jusqu’à 3000x3000 pixels). La pratique montre qu’il devient illusoire de vouloir mesurer des différences inférieures au mm (avec des objectifs classiques), et que le taux de variation est habituellement de l’ordre de 10 à 15%.
Le taux de compression d’une image JPEG est réglable (Fine, Normal et Fiable). Plus ce taux est élevé, plus le fichier résultant est léger, et plus l’image est dégradée. Il faut donc réaliser un compromis entre poids et qualité. On évite généralement de compresser trop fort, sous peine de faire apparaître des artefacts (block-artifacts).
L’autre difficulté consiste à définir et à figer les paramètres de prise d’image une fois pour toute. La standardisation suppose le contrôle de toutes les conditions dans lesquelles se fait la photographie, de manière à s’assurer que les changements constatés dans l’image ne proviennent que de causes intrinsèques à l’étude. La position et l’attitude du sujet, le lieu,  l’éclairage, les distances, le type d’appareil sont autant de paramètres qui peuvent varier et qui doivent donc être définis clairement. Les appareils les plus récents intègrent des processeurs d’image numérique dotés d’algorithmes très évolués qui prennent en charge l’analyse de la lumière et de l’exposition. La comparaison de clichés provenant de modèles différents est donc difficile en raison des réglages choisis non seulement par les utilisateurs, mais aussi par les constructeurs. L’éclairage est particulièrement important dans les problématiques liées à la couleur et à la texture. Un flash peut écraser ou au contraire accentuer le contraste et l’équilibre colorimétrique d’une photographique et la rendre inexploitable. Cela explique pourquoi les études récentes ont de plus en plus souvent recours à des techniques de filtrage et à des lumières artificielles (filtre et lumière UV, polarisateurs …). Globalement, les sources de variation sont si nombreuses qu’elles sont pratiquement rédhibitoires dans le cadre d’études multicentriques.
En raison des techniques de compression et de la retouche photographique, il est difficile de connaître la provenance exacte d’une image ou de garantir son originalité. Néanmoins, des solutions existent : métadonnées, header source, format RAW, analyse statistique, harmonique ...
Enfin se pose le problème du repositionnement, c’est à dire la capacité à pouvoir retrouver très exactement la zone ou l’orientation de l’objet photographié comme référence. La plupart des études exigent un repositionnement plusieurs semaines, voire plusieurs mois après T0, ce qui complique grandement la mesure. On limite les sources de variations en privilégiant l’utilisation de supports et de tables stéréostatiques qui maintiennent le sujet, associées à un pilotage décentralisé de l’appareil photographique. Des solutions informatiques existent pour compenser ces variations spatiales et requièrent des traitements informatiques particuliers (recadrage, autocorrélation, …). Ce problème reste fondamental en clinique parce qu’il concerne la majorité des appareils ayant recours à l’image numérique.
Le recalage géométrique comprend 3 étapes : 1) sélection manuelle de paires de points 2) mise en correspondance de ces points et création d’une transformation géométrique 3) application de cette transformation sur l’image.
Ces opérations permettent de corriger une translation bidimensionnelle (variations horizontales ou verticales de la position du volontaire), une rotation ou une homothétie (variations de distance entre le volontaire et le capteur).
Malgré ces précautions, d’autres problèmes demeurent. La visualisation des images est naturellement dépendante de l’étalonnage des écrans (cathodiques et maintenant LCD) disponibles. Juger de la saturation d’une couleur sur une personne, sur un écran, ou sur une photographie sont des situations radicalement différentes, avec dans chaque cas une problématique spécifique. En fait, toute la chaîne numérique est susceptible de poser problème (acquisition, visualisation ou impression) à un moment ou à un autre.

Au final, la photographie numérique est un outil prometteur dont la maîtrise et l’utilisation vont certainement encore évoluer dans les prochaines années. Les performances et les progrès techniques ne doivent surtout pas faire oublier la rigueur intellectuelle nécessaire à l’exploitation de cette technologie. L’analyse d’image doit quant à elle sortir du mileu informatique spécialisé qui la fait naître et s’ouvrir à la critique. Cela suppose une meilleure formation, une documentation des algorithmes et paramètres utilisés et une réelle volonté de dialogue et d’échange.

Dernières actualités

Présentation vidéo

Teaser

La Société Skinexigence SAS, a été créée par Sophie MAC le 02 février 2006 à Besançon, ville d’art et d’histoire. Après 6 années passées au sein de l'hôpital universitaire de Besançon, Skinexigence vient d'emménager dans l'immeuble Bioparc, au cœur du pôle santé bisontin regroupant les entreprises travaillant dans le domaine biomédical et à proximité du nouveau service de dermatologie.

En savoir plus