Contexte Scientifique
L’apprentissage profond est désormais une approche établie pour le traitement des images que ce soit en matière de segmentation ou de classification d’images. Cependant, et en particulier pour les applications médicales, il est important de pouvoir expliquer ou interpréter la décision d’un réseau.
A Creatis, nous avons proposé plusieurs méthodes [1][2] basées sur de l’apprentissage sous contraintes pour améliorer les aspects explicable et/ou interpretable d’un classifieur binaire sain/pathologique. En sus, les contraintes proposées permettent également de détecter les zones pathologiques dans une image et les segmenter de manière faiblement supervisée, sans autre annotation que le label global ”image saine” ou ”image pathologique” (voir le pdf joint pour des examples visuels).
Objectif
L’objectif de ce stage sera de poursuivre ces travaux en apprentissage sous contraintes: montrer la capacité des modèles appris sous contraintes à être plus interprétables et/ou plus explicables ou proposer de nouvelles contraintes. Un aspect du stage pourra être l’intégration des contraintes proposées au sein de modèles de diffusion[3][4]: une méthode très récente de génération d’images (Dall-E, mid-journey, Stable diffusion).
Data / Calcul
Les données sont déjà disponibles au laboratoire. L’accès à plusieurs centres de calcul est
disponible depuis le laboratoire.
Candidature
Le candidat ou la candidate recruté(e) devra
• faire preuve d’une forte motivation et d’un intérêt pour la recherche pluridisciplinaire (traitement d’images et apprentissage profond pour des applications médicales),
• être capable de comprendre les concepts mathématiques derrière les méthodes proposées
• maı̂triser parfaitement python (pytorch est un plus),
• être capable de mettre en place des expérience numériques
Nous cherchons plutôt quelqu’un ayant une formation en informatique scientifique, mathématiques appliquées ou analyse d’images.
Merci d’envoyer vos candidatures avec CV, lettre de motivation, relevés de notes, lettres de recommandation à michael.sdika[at]creatis.insa-lyon.fr.
Bibliography
1. V. Wargnier Dauchelle, A Weakly-Supervised Gradient Attribution Constraint for Interpretable Classsification and Anomaly Detection, et al, IEEE TMI 2023
2. V. Wargnier Dauchelle et al, Building, training and constraining non-negative networks to improve explainability, IEEE TMI (submitted)
3. J. Song et al, Denoising Diffusion Implicit Models, ICLR 2021
4. J. Wolleb et al, Diffusion Models for Medical Anomaly Detection, MICCAI 2022,