Logo equipe ADTSI

Optimisation et simulation bayésienne

La spécificité de nombreux problèmes d’estimation rencontrés en traitement statistique du signal et de l’image est le gros volume de données et la nécessité d’optimiser un critère par rapport à une grand nombre d’inconnues (l’imagerie 3D et l’imagerie dynamique ou hypersepctrale). Des travaux mathématiques relevant seulement de l’inférence statistique et de l’analyse numérique constitueraient une activité de recherche marginale dans la communauté "signal-image". Cependant, la démonstration d’un véritable savoir-faire tourné vers la résolution de problèmes appliqués est le complément indispensable à l’investissement plus théorique.

Optimisation

Nous menons depuis plusieurs années un investissement de fond dans le domaine des algorithmes d’optimisation permettant de résoudre des problèmes de grande taille, tel que la restauration d’image par régularisation markovienne ou la décomposition d’images hyperspectrales. Partant des algorithmes semiquadratiques, nous avons évolué vers des schémas de descente plus généraux (gradient conjugué, Newton tronqué, spous-espace de directions), en spécialisant notre travail à des stratégies de recherche de pas, scalaire ou vectoriel, fondées sur des approximations majorantes. Ces techniques ont été récemment exploitées dans le cadre des algorithmes de points intérieurs pour la résolution de problèmes d’estimation sous des contraintes linéaires.

Pour en savoir plus :

  • [1] E. Chouzenoux, J. Idier et S. Moussaoui, A majorize-minimize strategy for subspace optimization applied to image restoration. IEEE Transactions on Image Processing, vol. 20, no. 18, pp. 1517–1528, 2011.
  • [2] E. Chouzenoux, S. Moussaoui et J. Idier, Majorize-minimize linesearch for inversion methods involving barrier function optimization. Inverse Problems, vol. 28, no. 6, 2012

Implémentation pour la résolution de problèmes de grande taille

Le calcul de la solution de certains problèmes de grande taille nécessite la résolution un problème d'optimisation de grande taille sous des contraintes. Nous nous intéressons à l'optimisation de l'implémentation des méthodes de résolution à l’aide des processeurs de cartes graphique (GPU). La discussion porte sur la différence entre une parallélisation de l'algorithme entier, ou de chaque étape séparément, la façon d'utiliser au mieux le CPU et le GPU, ainsi que la meilleur manière d’organiser les données en mémoire.

Pour en savoir plus :

  • [1] E. Chouzenoux, M. Legendre, S. Moussaoui, et J. Idier, Fast constrained least squares spectral unmixing using primal-dual interior-point optimization, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. PP, no. 99, pp. 1–11, 2014.
  • [2] M. Legendre, A. Schmidt, S. Moussaoui, U. Lammers, Solving systems of linear equations by GPUbased matrix factorization in a Science Ground Segment, A paraître dans Astronomy and Computing, 2014, ISSN 2213-1337.

Simulation bayésienne

Les algorithmes de simulation bayésienne se déclinent en deux familles, les algorithmes de Monte-Carlo et les algorithmes particulaires, suivant que le problème d’estimation est hors-ligne ou en ligne. Nous travaillons à l’amélioration de la rapidité des algorithmes de Monte-Carlo par chaînes de Markov pour des problèmes d’inférence de grande taille (déconvolution, séparation de sources).

Pour en savoir plus :

  • [2] D. Ge, J. Idier et E. Le Carpentier, Enhanced sampling schemes for MCMC based blind Bernoulli-Gaussian deconvolution, Signal Processing, vol. 91, no.4, pp. 759–772, 2011.
  • [3] C. Gilavert, S. Moussaoui et J. Idier, Efficient Gaussian sampling for solving large-scale inverse problems using MCMC, soumis à IEEE Transactions on Signal Processing, 2013.
Logo-cnrsLogo-AtlanSticLogo-UniversiteNantesLogo-MinesNantesLogo-CentraleNanteslunamCOMUE