Skip to Content

Thème 1 : Modélisations géométrique, variationnelle et stochastique pour le traitement d'images

 

 

Mots clés

Analyse harmonique, représentations parcimonieuses, approche statistique, approche variationnelle, EDP, modèles géométriques, modèles topologiques, optimisation, restauration, segmentation.

Permanents :

Sébastien Bougleux (MCF, arrivé en sept. 2008), Luc Brun (PR), Laurent Condat (CR2, arrivé en nov. 2008), Abder Elmoataz (PR), Jalal Fadili (MCF), Sébastien Fourey (MCF), Stéphanie Jéhan-Besson (MCF, départ en oct. 2008 en tant que CR1 CNRS), Olivier Lezoray (MCF-HDR), Marinette Revenu (PR 50%), David Tschumperlé (CR2).

Approches variationnelles

Nous nous attachons dans ce thème à introduire et à étudier les propriétés théoriques de nouvelles formes d'attache aux données et de nouvelles formes de régularisation en particulier au travers des représentations parcimonieuses. Les fonctionnelles obtenues sont en général non-différentiables, voire non convexes. Nous nous attelons à l'étude de ces problèmes et proposons des algorithmes de résolution efficaces en nous appuyant sur des outils modernes de la théorie de l'optimisation et de l'analyse convexe. Les formes variationnelles sont aussi utilisées pour la formulation énergétique et la régularisation des contours dans les problèmes de segmentation d'image. Nos travaux portent sur l'élaboration et l'utilisation de modèles de contours actifs basés régions pour la segmentation de régions d'intérêt dans les images et les séquences vidéos. Dans ce thème, nous proposons aussi des résultats théoriques sur ces méthodes de segmentation et les énergies/EDP associées en utilisant les gradients de forme.

EDP

Les méthodes basées sur les EDPs suscitent un grand intérêt dans la communauté du traitement d'images depuis de nombreuses années.
Une caractéristique majeure des méthodes basées sur les EDPs est leur non-linéarité leur permettant de s'adapter localement aux données traitées. Nous avons défini un ensemble de méthodes efficaces pour le débruitage et la segmentation des images, basées sur l'évolution d'EDPs de diffusion et d'EDPs géométriques. Dans le cadre du débruitage, les EDPs de diffusion permettent de régulariser une image, en s'adaptant à ses caractéristiques géométriques locales. Le calcul de ces caractéristiques et l'adaptation des équations à celles-ci sont un sujet de recherche actif dans l'équipe. Dans le cadre de la segmentation, l'équation d'évolution des contours actifs est régie par une EDP dite géométrique, qui peut être dérivée d'un critère à minimiser. Nous nous sommes particulièrement intéressé à l'obtention rigoureuse de cette EDP à partir de critères statistiques globaux complexes.

Lorsque l'on souhaite traiter des fonctions ou des données définies sur des espaces ou des domaines singuliers, l'utilisation du cadre variationnel et des EDPs peut poser de nombreux problèmes, notamment de discrétisation. Nous nous attachons donc à formuler des opérations de traitement et d'analyse de données directement dans un cadre discret sur des graphes de topologies arbitraires.

Modèles géométriques et topologiques

Les données discrètes sont omniprésentes en informatique pour des raisons à la fois pratiques (discrétisation par l'acquisition) et conceptuelles. La géométrie discrète a pour objet l'étude des propriétés géométriques et topologiques d'objets définis dans les images discrètes. La géométrie algorithmique étudie quand à elle les propriétés d'un ensemble discret de primitives géométriques plongées dans un espace Euclidien. Les problèmes adressés par cette discipline incluent les problèmes de localisation et de recherche géométriques, de convexité, d'intersection, de visibilité et de proximité. L'étude d'un ensemble discret d'objets et de relations entre ces objets induit naturellement un codage par graphes. Les cartes combinatoires constituent un objet particulièrement puissant pour le codage d'objets ou de partitions. En effet, les cartes combinatoires généralisées (ou non) permettent de coder des pseudo-variétés non orientables (ou orientables). La décimation de ces cartes produit un modèle hiérarchique (une pyramide combinatoire) codant une série de représentations de plus en plus grossières.

Approches stochastiques

Les modèles stochastiques permettent la modélisation de l'incertitude et la formulation d'estimateurs et de détecteurs statistiques dans les problèmes de traitement d'images et de reconnaissance des formes. En nous appuyant sur les outils des mathématiques statistiques, nous proposons de décrire le processus de dégradation des images ou objets observés, et de décrire la connaissance a priori sur la classe de solutions candidates (processus ou champs aléatoires, lois dans les espaces transformés).

Analyse harmonique moderne

Les outils de l'analyse harmonique nous permettent de passer dans un espace transformé mettant en évidence des caractéristiques spécifiques du signal, de le scruter sous un autre angle. Un effort considérable dans le domaine de l'analyse harmonique moderne a donné lieu à des représentations parcimonieuses adaptatives ou non-adaptatives permettant de représenter de façon optimale des images en fonction de leur contenu géométrique. Ces efforts ont aussi ouvert la voie à de nombreuses recherches en théorie de l'approximation, de l'estimation, et tout récemment à un nouveau paradigme d'échantillonnage dit compressé (compressed sensing) allant bien au delà de la limite de Shannon. Ainsi, nous investissons une part importante de notre recherche théorique et applicative dans ce cadre pour proposer des algorithmes novateurs de restauration, de décomposition, de séparation de sources, de reconstruction, etc.

 

retour à la page de l'équipe